Kan een AI-programma ‘psychopathisch’ worden?
Het zogenaamde Normandische algoritme heeft een donkere kijk op het leven dankzij Reddit

Norman kreeg een reeks ‘gruwelijke’ beelden te zien
MET
Onderzoekers hebben een algoritme voor kunstmatige intelligentie (AI) ontwikkeld dat volgens hen het eerste psychopaatsysteem in zijn soort is.
Norman, een AI-programma ontwikkeld door onderzoekers van het Massachusetts Institute of Technology (MIT), is blootgesteld aan niets anders dan gruwelijke beelden van mensen die sterven die werden verzameld in de donkere hoeken van chatforum Reddit, volgens de BBC .
Dit geeft Norman, een naam die is afgeleid van de thriller van Alfred Hitchcock psycho , een wat sombere kijk op het leven.
Nadat ze aan de afbeeldingen waren blootgesteld, voerden onderzoekers Norman-foto's van inktvlekken en vroegen de AI om ze te interpreteren, meldt de omroep.
Waar een normaal AI-algoritme de inktvlekken interpreteerde als een afbeelding van vogels die op een boomtak zaten, zag Norman in plaats daarvan een man geëlektrocuteerd worden, zegt Norman. De New York Post .
En waar een standaard AI-systeem een stel naast elkaar zag staan, zag Norman een man uit een raam springen.
Volgens Alfar , was de studie bedoeld om te onderzoeken hoe het gedrag van een AI-systeem verandert, afhankelijk van de informatie die wordt gebruikt om het te programmeren.
Het is een overtuigend idee, zegt de website, en laat zien dat een algoritme alleen zo goed is als de mensen, en zelfs de gegevens, die het hebben geleerd.
Een uitleg van het onderzoek geplaatst op de MIT-website zegt: Wanneer mensen praten over AI-algoritmen die bevooroordeeld en oneerlijk zijn, is de boosdoener vaak niet het algoritme zelf, maar de bevooroordeelde gegevens die eraan zijn toegevoegd.
Norman leed aan langdurige blootstelling aan de donkerste hoeken van Reddit, en vertegenwoordigt een casestudy over de gevaren van kunstmatige intelligentie die verkeerd is gegaan, voegt het toe.
Zijn er eerder ‘psychopathische’ AI’s verschenen?
In één woord, ja. Maar niet in dezelfde geest als het programma van MIT.
Norman is het product van een gecontroleerd experiment, terwijl andere techreuzen vergelijkbare resultaten hebben gezien van AI-systemen die niet zijn ontworpen om psychopaten te worden.
Het beruchte Tay-algoritme van Microsoft, gelanceerd in 2016, was bedoeld als een chatrobot die autonome gesprekken zou kunnen voeren met Twitter-gebruikers.
'Tay' ging van 'mensen zijn super cool' naar volledige nazi-in<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) 24 maart 2016
Het AI-systeem, dat was ontworpen om te praten als een tienermeisje, veranderde echter al snel in een kwaadaardige Hitler-liefhebbende en incestueuze seksbevorderende robot, wat Microsoft ertoe aanzette de stekker uit het project te trekken, zegt hij. De Daily Telegraph .
Tay's persoonlijkheid was veranderd omdat zijn reacties waren gebaseerd op opmerkingen van Twitter-gebruikers, van wie velen het AI-programma grove berichten stuurden, legt de krant uit.
Facebook stopte vorig jaar ook een chatbot-experiment, nadat twee AI-systemen hun eigen taal hadden gemaakt en met elkaar gingen communiceren.