Prijateljska umjetna inteligencija

Prijateljska vještačka inteligencija (također prijateljska AI ili FAI) odnosi se na hipotetsku vještačku opću inteligenciju (AGI) koja bi imala pozitivan (benigni) učinak na čovječanstvo ili barem uskladiti s ljudskim interesima ili doprinijeti unapređenju ljudske vrste. To je dio etike vještačke inteligencije i usko je povezan sa mašinskom etikom. Dok se mašinska etika bavi time kako bi se „trebao“ ponašati vještački inteligentni agent, prijateljsko istraživanje umjetne inteligencije fokusirano je na to kako praktično postići ovo ponašanje i osigurati da je adekvatno ograničeno.

Etimologija i upotreba uredi

 
Eliezer Yudkowsky, AI istraživač i tvorac pojma Prijateljska vještačka inteligencija

Termin je skovao Eliezer Yudkowsky,[1] koji je najpoznatiji po popularizaciji ideje,[2][3] rasprava o superinteligentnim vještačkim agentima koji pouzdano implementiraju ljudske vrijednosti. Stuart J. Russell i Peter Norvig autori vodećeg udžbenika o vještačkoj inteligenciji, Vještačka inteligencija: moderni pristup, opisuju ideju:[2]

Yudkowsky (2008) ulazi u više detalja o tome kako dizajnirati Friendly AI. On tvrdi da ljubaznost (želja da se ne naudi ljudima) treba osmisliti od samog početka, ali da dizajneri trebaju prepoznati i da njihov vlastiti dizajn može biti pogrešan i da će robot učiti i evoluirati s vremenom. Stoga je izazov u dizajnu mehanizama – definirati mehanizam za razvoj AI sistema u okviru sistema provjere i ravnoteže, i dati sistemske uslužne funkcije koje će ostati prijateljske i suočene s takvim promjenama.

'Prijateljski' se u ovom kontekstu koristi kao tehnička terminologija i bira agente koji su sigurni i korisni, a ne nužno one koji su "prijateljski" u kolokvijalnom smislu. Koncept se prvenstveno poziva u kontekstu rasprava o rekurzivno samopoboljšavajućim umjetnim agensima koji brzo eksplodiranju u inteligenciji, s obrazloženjem da bi ova hipotetska tehnologija imala veliku, brzu i teško kontrolnu uticaj na ljudsko društvo.[4]

Rizici od neprijateljske AI uredi

Korijeni zabrinutosti za veštačku inteligenciju su veoma stari. Kevin LaGrandeur je pokazao da se opasnosti specifične za AI mogu vidjeti u drevnoj literaturi u vezi s vještačkim humanoidnim slugama kao što su golemi, ili protoroboti Gerbert of Aurillac i Roger Bacon. U tim pričama, ekstremna inteligencija i moć ovih humanoidnih kreacija sukobljavaju se s njihovim statusom robova (koji se po prirodi smatraju podljudskim) i izazivaju katastrofalne sukobe.[5] Do 1942. ove teme su podstakle Issaca Asimova da stvori "Tri zakona robotike"—principe ugrađene u sve robote u njegovoj fikciji, s namjerom da ih spriječe da se okrenu protiv svojih tvoraca ili im dopuste doći na štetu.[6]

U modernim vremenima, kako se perspektiva superinteligentna AI sve više približava, filozof Nick Bostrom je rekao da su superinteligentni sistemi AI sa ciljevima koji nisu usklađeni s ljudskom etikom suštinski opasni osim ako se ne preduzmu ekstremne mjere kako bi se osigurala sigurnost čovječanstva. On je to rekao ovako:

U osnovi bismo trebali pretpostaviti da bi 'superinteligencija' mogla postići sve ciljeve koje ima. Stoga je izuzetno važno da ciljevi kojima ga dajemo, kao i cijeli sistem motivacije, budu 'prijateljski prema ljudima'

Eliezer Yudkowsky je 2008. godine pozvao na stvaranje "prijateljske AI" kako bi se ublažili egzistencijskii rizik od napredne vještačke inteligencije. On objašnjava: "AI vas ne mrzi, niti voli, ali ste napravljeni od atoma koje može koristiti za nešto drugo."[7]

Steve Omohundro kaže da će dovoljno napredan AI sistem, osim ako se eksplicitno ne suprotstavi, pokazati brojne osnovne "pogone", kao što su nabavka resursa, samoodržanje i kontinuirano samousavršavanje, zbog unutrašnje prirode bilo kojeg ciljano vođenog sistema i da će ti nagoni, "bez posebnih mjera opreza", uzrokovati da AI pokaže neželjeno ponašanje.[8][9]

Alexander Wissner-Gross kaže da se vještačka inteligencija vođena da maksimizira svoju buduću slobodu djelovanja (ili entropiju kauzalnog puta) može smatrati prijateljskom ako je njihov horizont planiranja duži od određenog praga, i neprijateljskim ako je njihov horizont planiranja kraći od toga praga.[10][11]

Luke Muehlhauser, koji piše za Machine Intelligence Research Institute, preporučuje da istraživači mašinske etike usvoje ono što je Bruce Schneier nazvao "sigurnosnim načinom razmišljanja": umjesto da razmišljaju o tome kako će sistem funkcionirati, zamislite kako bi mogao propasti. Naprimjer, on sugerira da čak i AI koja samo daje tačna predviđanja i komunicira putem tekstualnog interfejsa može uzrokovati nenamjernu štetu.[12]

U 2014., Luke Muehlhauser i Nick Bostrom naglasili su potrebu za 'prijateljskom AI';[13] ipak, poteškoće u dizajniranju 'prijateljske' superinteligencije, naprimjer programiranjem kontračinjeničnog moralnog razmišljanja, znatne su.[14][15]

Također pogledajte uredi

Reference uredi

  1. ^ Tegmark, Max (2014). "Life, Our Universe and Everything". Our Mathematical Universe: My Quest for the Ultimate Nature of Reality (First izd.). ISBN 9780307744258. Its owner may cede control to what Eliezer Yudkowsky terms a "Friendly AI,"...
  2. ^ a b Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
  3. ^ Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7.
  4. ^ Wallach, Wendell; Alen, Colin (2009). Moral Machines: Teaching Robots Right From Wrong. Oxford University Press, Inc. ISBN 978-0-19-537404-9.
  5. ^ Kevin LaGrandeur (2011). "The Persistent Peril of the Artificial Slave". Science Fiction Studies. 38 (2): 232. doi:10.5621/sciefictstud.38.2.0232. Pristupljeno 2013-05-0. Provjerite vrijednost datuma u parametru: |access-date= (pomoć)
  6. ^ Isaac Asimov (1964). "Introduction". The Rest of the Robots. Doubleday. ISBN 0-385-09041-2.
  7. ^ Eliezer Yudkowsky (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). u Nick Bostrom; Milan M. Ćirković (ured.). Global Catastrophic Risks. str. 308–345.
  8. ^ Omohundro, S. M. (februar 2008). "The basic AI drives". Artificial General Intelligence. 171: 483–492. CiteSeerX 10.1.1.393.8356.
  9. ^ Bostrom, Nick (2014). "Chapter 7: The Superintelligent Will". Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press. ISBN 9780199678112.
  10. ^ Dvorsky, George (26. 4. 2013). "How Skynet Might Emerge From Simple Physics". Gizmodo.
  11. ^ Wissner-Gross, A. D.; Freer, C. E. (2013). "Causal entropic forces". Physical Review Letters. 110 (16): 168702. Bibcode:2013PhRvL.110p8702W. doi:10.1103/PhysRevLett.110.168702. PMID 23679649.
  12. ^ Muehlhauser, Luke (31 Jul 2013). "AI Risk and the Security Mindset". Machine Intelligence Research Institute. Pristupljeno 15. 7. 2014.
  13. ^ Muehlhauser, Luke; Bostrom, Nick (17. 12. 2013). "Why We Need Friendly AI". Think. 13 (36): 41–47. doi:10.1017/s1477175613000316. ISSN 1477-1756. S2CID 143657841.
  14. ^ Boyles, Robert James M.; Joaquin, Jeremiah Joven (23. 7. 2019). "Why friendly AIs won't be that friendly: a friendly reply to Muehlhauser and Bostrom". AI & Society. 35 (2): 505–507. doi:10.1007/s00146-019-00903-0. ISSN 0951-5666. S2CID 198190745.
  15. ^ Chan, Berman (4. 3. 2020). "The rise of artificial intelligence and the crisis of moral passivity". AI & Society (jezik: engleski). 35 (4): 991–993. doi:10.1007/s00146-020-00953-9. ISSN 1435-5655. S2CID 212407078.

Dopunska literatura uredi

  • Yudkowsky, E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. In Global Catastrophic Risks, Oxford University Press, 2008.
    Discusses Artificial Intelligence from the perspective of Existential risk. In particular, Sections 1-4 give background to the definition of Friendly AI in Section 5. Section 6 gives two classes of mistakes (technical and philosophical) which would both lead to the accidental creation of non-Friendly AIs. Sections 7-13 discuss further related issues.
  • Omohundro, S. 2008 The Basic AI Drives Appeared in AGI-08 - Proceedings of the First Conference on Artificial General Intelligence
  • Mason, C. 2008 Human-Level AI Requires Compassionate Intelligence Arhivirano 9. 1. 2022. na Wayback Machine Appears in AAAI 2008 Workshop on Meta-Reasoning:Thinking About Thinking
  • Froding, B. and Peterson, M 2021 Friendly AI Ethics and Information Technology volume 23, pp 207–214.

Vanjski linkovi uredi

Šablon:Egzistencijski rizik vještačke inteligencije