Dus uhm...
Stel dat we op enig moment in de relatief nabije toekomst [uhhh zeg 100 jaar] Artificial Intelligence konden ontwikkelen die de Turing test kan doorstaan. Dus dat 1 op 1 niet zou kunnen worden vastgesteld of een gesprekspartner mens of machine is.
En ik bedoel.. ik zou inschatten dat dat zeker mogelijk is - en de tijdsspanne.. moeilijker te zeggen, maar zou me ook niet verbazen.
Stel dat dus.
Zou het dan ethisch verantwoord zijn om met die AI's experimenten uit te voeren die momenteel met menselijke deelnemers niet worden toegestaan? Bijvoorbeeld wat langdurige solitaire opsluiting doet. Of onthouden van mogelijkheid om taal aan te leren. Of een AI laten opvoeden door anderen, dan na langere tijd de anderen [gewelddadig] wegnemen, en kijken wat er gebeurt.
En stel dat we geheugens totaal zouden wissen, zodat na een experiment op geen niveau nog schade is, en geen verschil in de AI dan wanneer de experiementen niet zouden zijn uitgevoerd?
Of, als dat nog niet verantwoord zou zijn - zou het verantwoord zijn bij eenvoudiger AI's?
Hmmm.. zat het me gewoon af te vragen.