Voiko tekoälyohjelmasta tulla 'psykopaattinen'?
Niin kutsutulla Norman-algoritmilla on synkkä elämänkatso Redditin ansiosta

Normanille näytettiin sarja 'hirvittäviä' kuvia
KANSSA
Tutkijat ovat luoneet tekoälyn (AI) algoritmin, jonka he väittävät olevan ensimmäinen laatuaan psykopaattijärjestelmä.
Norman, Massachusetts Institute of Technologyn (MIT) tutkijoiden kehittämä tekoälyohjelma, on altistunut pelottaville kuville kuolevista ihmisistä, jotka on kerätty keskustelupalsta Redditin pimeistä kulmista. BBC .
Tästä syntyy Norman, nimi, joka on johdettu Alfred Hitchcockin trilleristä Psycho , hieman synkkä näkemys elämästä.
Kuville altistumisen jälkeen tutkijat syöttivät Normanille kuvia mustepisteistä ja pyysivät tekoälyä tulkitsemaan ne, lähetysyhtiö raportoi.
Kun normaali tekoälyalgoritmi tulkitsi mustetäplät kuvaksi linnuista kyydissä puun oksalla, Norman näki sen sijaan miehen saaneen sähköiskun, sanoo New York Post .
Ja kun tavallinen tekoälyjärjestelmä näki parin seisovan vierekkäin, Norman näki miehen hyppäävän ulos ikkunasta.
Mukaan Alphr , tutkimuksen tarkoituksena oli tutkia, kuinka tekoälyjärjestelmän käyttäytyminen muuttuu sen ohjelmointiin käytetyn tiedon mukaan.
Se on vakuuttava idea, sanoo verkkosivusto, ja osoittaa, että algoritmi on vain niin hyvä kuin ihmiset ja itse asiassa tiedot, jotka ovat sen opettaneet.
Selitys tutkimuksesta, joka on julkaistu osoitteessa MIT:n verkkosivuilla sanoo: Kun ihmiset puhuvat tekoälyalgoritmien puolueellisuudesta ja epäreilusta, syyllinen ei useinkaan ole itse algoritmi, vaan siihen syötetty puolueellinen data.
Norman kärsi pitkäaikaisesta altistumisesta Redditin pimeimmille nurkille, ja se edustaa tapaustutkimusta pieleen menneen tekoälyn vaaroista, se lisää.
Onko 'psykopaattisia' tekoälyä esiintynyt aiemmin?
Sanalla sanoen kyllä. Mutta ei samalla tavalla kuin MIT:n ohjelma.
Norman on kontrolloidun kokeen tulos, kun taas muut teknologiajätit ovat nähneet samanlaisia tuloksia tekoälyjärjestelmistä, joita ei ole suunniteltu psykopaatiksi.
Microsoftin vuonna 2016 lanseerattu surullisen kuuluisa Tay-algoritmi oli tarkoitettu chat-robotiksi, joka voisi käydä itsenäisiä keskusteluja Twitter-käyttäjien kanssa.
'Tay' muuttui sanasta 'ihmiset ovat superhienoja' täysnatsiksi<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
- gerry (@geraldmellor) 24. maaliskuuta 2016
Tekoälyjärjestelmä, joka oli suunniteltu puhumaan kuin teini-ikäinen tyttö, muuttui kuitenkin nopeasti ilkeäksi Hitleriä rakastavaksi ja insestuaalista seksiä edistäväksi robotiksi, mikä sai Microsoftin vetäytymään projektista, sanoo The Daily Telegraph .
Tayn persoonallisuus oli muuttunut, koska sen vastaukset perustuivat Twitter-käyttäjien kommentteihin, joista monet lähettivät tekoälyohjelmalle karkeita viestejä, sanomalehti selittää.
Facebook sulki myös chatbot-kokeilun viime vuonna, kun kaksi tekoälyjärjestelmää loivat oman kielensä ja alkoivat kommunikoida keskenään.