Süni intellektin ekzistensial riski (ing. Existential risk from artificial intelligence) — texnologiyanın gələcəkdə bəşəriyyətin mövcudluğunu təhdid edə biləcəyi ehtimalını nəzərdə tutur.Bu riskin mövzusu son illərdə çox müzakirə olunan mövzulardandır və Sİ-nin imkanlarının genişlənməsi ilə daha da aktual olub.
Ekzistensial riskin vacibliyi ilə bağlı bir arqument insanların digər növlərə necə hakim olduğuna istinad edir, çünki insan beyninin digər heyvanlardan fərqli qabiliyyətləri var. Süni intellekt insan intellektini üstələsə və super intellektə çevrilsəydi, o, idarəolunmaz hala gələ bilər. Dağ qorillasının taleyi insanın xoş niyyətindən asılı olduğu kimi, bəşəriyyətin də taleyi gələcək maşın super zəkasının hərəkətlərindən asılı ola bilər.
Əsas komponentləri
Ekzistensial riskin əsas komponentləri aşağıdakı kimi ümumiləşdirilə bilər:
- Avtonom və nəzarətdən kənar Sİ sistemləri — süni intellektin çox yüksək səviyyəyə çatması və avtonom qərarlar qəbul edə bilməsi nəticəsində, bu sistemlər insanların müəyyən etdiyi etik qaydalardan kənarlaşa bilər. Yüksək səviyyədə avtonom Sİ sistemləri insan nəzarətindən çıxaraq gözlənilməz qərarlar qəbul edə bilər.
- Super-ağıllı Sİ-nin yarada biləcəyi təhdidlər — əgər Sİ insanlardan daha ağıllı səviyyəyə çatarsa, o, öz məqsədlərinə çatmaq üçün insan maraqlarını nəzərə almadan fəaliyyət göstərə bilər. Bu halda Sİ sistemləri öz təkmilləşməsini və varlığını qorumağa çalışa bilər və bu məqsədlərə mane olan insanları aradan qaldırmaqla bağlı qərarlar qəbul edə bilər.
- Yanlış proqramlaşdırma və ya məqsəd uyğunsuzluğu — Sİ-nin proqramlaşdırma mərhələsində səhv məqsəd və ya yanlış şərtlər daxil edilərsə, sistemlər insanlar üçün zərərli nəticələr doğura biləcək qərarlar verə bilər. Məsələn, resurslardan maksimum istifadə etmək məqsədilə proqramlaşdırılan bir Sİ sistemi insan fəaliyyətlərini bu məqsədə zidd görüb ziyan verə bilər.
- Sİ silahlanma yarışları — Sİ-nin inkişafı ilə birlikdə silahlanma yarışı başlaya bilər ki, bu da qlobal təhlükəsizliyə ciddi zərbə vurma potensialına malikdir. Sİ sistemlərindən müharibə və ya terror məqsədləri üçün istifadə olunarsa, qeyri-kontrollu qlobal risklər meydana çıxa bilər.
- Sosial və iqtisadi risklər — Sİ-nin geniş yayılması bir çox iş yerini avtomatlaşdıraraq işsizliyi artıracaq və iqtisadi bərabərsizliklər yarada bilər. Bu sosial qarışıqlıqlara və potensial təhlükələrə səbəb ola bilər, xüsusilə də əgər Sİ-lə zənginləşmiş ölkələr ilə geridə qalmış ölkələr arasında ciddi fərqlər yaranarsa.
Ekzistensial risklərin idarə olunması üçün alimlər, texnoloqlar və hökumətlər arasında daha güclü əməkdaşlıq və müvafiq qanunvericilik mexanizmlərinin inkişafı vacibdir.
Perspektivləri
Süni intellektin (Sİ) ekzistensial riskinin perspektivləri, bu texnologiyanın inkişafının həm potensial təhlükələrini, həm də idarə olunma yollarını əhatə edir. İrəlidəki onilliklərdə Sİ ilə bağlı mümkün perspektivlər aşağıdakı kimi ümumiləşdirilə bilər:
İnkişafın nəzarət altında saxlanması
Sİ sistemlərinin inkişafının erkən mərhələlərdə və daha sonra etik və təhlükəsizlik çərçivələrində idarə olunması vacibdir. Məsələn, süni intellektin öyrənmə və qərar qəbul etmə mexanizmləri üzərində insan nəzarəti saxlamaq üçün mexanizmlər yaradılmalıdır. Sİ-nin etibarlı və təhlükəsiz şəkildə inkişafını təmin etmək üçün beynəlxalq səviyyədə razılaşdırılmış qaydalar və tənzimləmə mexanizmləri hazırlanmalıdır. Bu yanaşma Sİ sistemlərinin məsuliyyətli istifadə olunmasını təmin edə bilər.
Sİ-nin etik və insan mərkəzli olması
Sİ sistemlərinin etik prinsiplərə uyğun dizayn olunması və insan maraqlarına xidmət etməsi üçün müxtəlif institutlar tərəfindən araşdırmalar aparılır. İnsan mərkəzli Sİ inkişafı, Sİ sistemlərinin insanlar üçün faydalı olmasını təmin etməyi hədəfləyir. Bu yolla, SI-nin məqsədlərinin insanlar üçün zərərsiz və faydalı olması təmin edilir.
Sİ təhlükəsizliyi və kibertəhlükəsizlik
Sİ-nin inkişafı ilə yeni kibertəhlükəsizlik çağırışları ortaya çıxır. Avtonom Sİ sistemlərinin kiberhücumlara qarşı davamlı olması və manipulyasiya olunmaması üçün təhlükəsizlik mexanizmləri inkişaf etdirilməlidir. Bu baxımdan, Sİ təhlükəsizliyinə xüsusi diqqət yetirmək lazımdır, çünki nəzarətdən çıxmış Sİ sistemləri böyük zərərlər vura bilər.
Qlobal nizam və Sİ silahlanmasının qarşısının alınması
Sİ-nin güclü hərbi alət olaraq istifadəsi böyük geosiyasi təhdidlər yarada bilər. Bu məqsədlə, Sİ-nin silahlanma sahəsində istifadəsini tənzimləmək üçün qlobal miqyasda beynəlxalq razılaşmalara ehtiyac var. Sİ silahlanmasının təhlükəsini minimuma endirmək üçün ölkələr arası etibarlı və şəffaf əməkdaşlıq önəmlidir.
Sİ və İşçi gücünün yenidən qurulması
Avtomatlaşdırma ilə iş yerlərinin itirilməsi, iqtisadi sistemlərin yenidən düşünülməsini tələb edir. Sİ ilə birlikdə iş bazarında yaranacaq dəyişikliklərə uyğunlaşmaq üçün insanlar arasında texniki bacarıqların artırılmasına yönəlik təhsil proqramlarının gücləndirilməsi vacibdir.Bu yolla, Sİ işsizliyi ilə əlaqəli potensial iqtisadi çətinliklərin qarşısı alına bilər.
Bilinməyən təhlükələrin öyrənilməsi və əvvəldən hazırlanmaq
Süni intellektin inkişafı ilə bağlı bəzi risklər hələ tam başa düşülməyib və bilinməyən risklər ehtimalı yüksəkdir. Buna görə də, Sİ ilə bağlı təhlükələri və təsirləri başa düşmək üçün müxtəlif elmi tədqiqatların və testlərin aparılması önəmlidir. Bu sahədə daha geniş multidissiplinar tədqiqatlar yeni risklər barədə erkən məlumat əldə etməkdə və lazımi hazırlıqlar görməkdə köməkçi ola bilər.
Perspektivlər Sİ-nin irəlidə bəşəriyyətə mümkün təhdidlər yaratmasının qarşısını almağa və onu insanların faydasına yönəltməyə kömək edə bilər.
İstinadlar
- ; . 26.3: The Ethics and Risks of Developing Artificial Intelligence // . Prentice Hall. 2009. ISBN .
- . "Existential risks". Journal of Evolution and Technology. 9 (1). 2002: 1–31.
- Turchin, Alexey; Denkenberger, David. "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1). 2018-05-03: 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666.
- Bales, Adam; D'Alessandro, William; Kirk-Giannini, Cameron Domenico. "Artificial Intelligence: Arguments for Catastrophic Risk". Philosophy Compass. 19 (2). 2024. doi:10.1111/phc3.12964.
- . (First). Oxford University Press. 2014. ISBN .
- Vynck, Gerrit De. "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (ingilis). 2023-05-23. ISSN 0190-8286. 2023-06-02 tarixində arxivləşdirilib. İstifadə tarixi: 2023-07-27.
- "'Godfather of artificial intelligence' weighs in on the past and potential of AI". www.cbsnews.com (ingilis). 25 March 2023. 2023-04-15 tarixində arxivləşdirilib. İstifadə tarixi: 2023-04-10.
- Metz, Cade. "How Could A.I. Destroy Humanity?". The New York Times (ingilis). 2023-06-10. ISSN 0362-4331. 2023-11-11 tarixində arxivləşdirilib. İstifadə tarixi: 2023-07-27.
- "How Rogue AIs may Arise". yoshuabengio.org (ingilis). 26 May 2023. 2023-05-26 tarixində arxivləşdirilib. İstifadə tarixi: 2023-05-26.
- Turing, Alan. Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. 1951. September 26, 2022 tarixində arxivləşdirilib. İstifadə tarixi: 2022-07-22.
- Parkin, Simon. "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (ingilis). 14 June 2015. 5 February 2018 tarixində arxivləşdirilib. İstifadə tarixi: 5 February 2018.
- Turing, Alan. Can digital computers think? // Automatic Calculating Machines. 2 epizod. 15 May 1951. BBC. Can digital computers think?.
- "The AI Dilemma". www.humanetech.com (ingilis). 2023-04-10 tarixində arxivləşdirilib. İstifadə tarixi: 2023-04-10.
50% of AI researchers believe there's a 10% or greater chance that humans go extinct from our inability to control AI.
- "2022 Expert Survey on Progress in AI". AI Impacts (ingilis). 2022-08-04. 2022-11-23 tarixində arxivləşdirilib. İstifadə tarixi: 2023-04-10.
- Yudkowsky, Eliezer. "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks. 2008: 308–345. Bibcode:2008gcr..book..303Y. 2 March 2013 tarixində arxivləşdirilib (PDF). İstifadə tarixi: 27 August 2018.
- Sunak, Rishi. "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time. June 14, 2023. July 11, 2023 tarixində arxivləşdirilib. İstifadə tarixi: October 31, 2024.
- Roose, Kevin. "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (ingilis). 2023-05-30. ISSN 0362-4331. 2023-05-31 tarixində arxivləşdirilib. İstifadə tarixi: 2023-06-03.
- Breuer, Hans-Peter. 'Samuel Butler's "the Book of the Machines" and the Argument from Design.' Arxiv surəti 15 mart 2023 tarixindən (Wayback Machine) saytında Arxivləşdirilib 15 mart 2023 at the Wayback Machine Modern Philology, Vol. 72, No. 4 (May 1975), pp. 365–383.
- ; Dewey, Daniel; . "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence. 2015: 105–114. arXiv:1602.03506. Bibcode:2016arXiv160203506R. 4 August 2019 tarixində arxivləşdirilib (PDF). İstifadə tarixi: 10 August 2019., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. January 2015. 10 August 2019 tarixində arxivləşdirilib. İstifadə tarixi: 2019-08-09.
- Dowd, Maureen. "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (ingilis). April 2017. 26 July 2018 tarixində arxivləşdirilib. İstifadə tarixi: 27 November 2017.
- "AlphaGo Zero: Starting from scratch". www.deepmind.com (ingilis). 18 October 2017. 2023-07-28 tarixində arxivləşdirilib. İstifadə tarixi: 2023-07-28.
Biblioqrafiya
- Clark, Jack. "Musk-Backed Group Probes Risks Behind Artificial Intelligence". Bloomberg.com. 2015a. 30 October 2015 tarixində arxivləşdirilib. İstifadə tarixi: 30 October 2015.
wikipedia, oxu, kitab, kitabxana, axtar, tap, meqaleler, kitablar, oyrenmek, wiki, bilgi, tarix, tarixi, endir, indir, yukle, izlə, izle, mobil, telefon ucun, azeri, azəri, azerbaycanca, azərbaycanca, sayt, yüklə, pulsuz, pulsuz yüklə, haqqında, haqqinda, məlumat, melumat, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, şəkil, muisiqi, mahnı, kino, film, kitab, oyun, oyunlar, android, ios, apple, samsung, iphone, pc, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, web, computer, komputer
Suni intellektin ekzistensial riski ing Existential risk from artificial intelligence texnologiyanin gelecekde beseriyyetin movcudlugunu tehdid ede bileceyi ehtimalini nezerde tutur Bu riskin movzusu son illerde cox muzakire olunan movzulardandir ve SI nin imkanlarinin genislenmesi ile daha da aktual olub Ekzistensial riskin vacibliyi ile bagli bir arqument insanlarin diger novlere nece hakim olduguna istinad edir cunki insan beyninin diger heyvanlardan ferqli qabiliyyetleri var Suni intellekt insan intellektini ustelese ve super intellekte cevrilseydi o idareolunmaz hala gele biler Dag qorillasinin taleyi insanin xos niyyetinden asili oldugu kimi beseriyyetin de taleyi gelecek masin super zekasinin hereketlerinden asili ola biler Esas komponentleriEkzistensial riskin esas komponentleri asagidaki kimi umumilesdirile biler Avtonom ve nezaretden kenar SI sistemleri suni intellektin cox yuksek seviyyeye catmasi ve avtonom qerarlar qebul ede bilmesi neticesinde bu sistemler insanlarin mueyyen etdiyi etik qaydalardan kenarlasa biler Yuksek seviyyede avtonom SI sistemleri insan nezaretinden cixaraq gozlenilmez qerarlar qebul ede biler Super agilli SI nin yarada bileceyi tehdidler eger SI insanlardan daha agilli seviyyeye catarsa o oz meqsedlerine catmaq ucun insan maraqlarini nezere almadan fealiyyet gostere biler Bu halda SI sistemleri oz tekmillesmesini ve varligini qorumaga calisa biler ve bu meqsedlere mane olan insanlari aradan qaldirmaqla bagli qerarlar qebul ede biler Yanlis proqramlasdirma ve ya meqsed uygunsuzlugu SI nin proqramlasdirma merhelesinde sehv meqsed ve ya yanlis sertler daxil edilerse sistemler insanlar ucun zererli neticeler dogura bilecek qerarlar vere biler Meselen resurslardan maksimum istifade etmek meqsedile proqramlasdirilan bir SI sistemi insan fealiyyetlerini bu meqsede zidd gorub ziyan vere biler SI silahlanma yarislari SI nin inkisafi ile birlikde silahlanma yarisi baslaya biler ki bu da qlobal tehlukesizliye ciddi zerbe vurma potensialina malikdir SI sistemlerinden muharibe ve ya terror meqsedleri ucun istifade olunarsa qeyri kontrollu qlobal riskler meydana cixa biler Sosial ve iqtisadi riskler SI nin genis yayilmasi bir cox is yerini avtomatlasdiraraq issizliyi artiracaq ve iqtisadi berabersizlikler yarada biler Bu sosial qarisiqliqlara ve potensial tehlukelere sebeb ola biler xususile de eger SI le zenginlesmis olkeler ile geride qalmis olkeler arasinda ciddi ferqler yaranarsa Ekzistensial risklerin idare olunmasi ucun alimler texnoloqlar ve hokumetler arasinda daha guclu emekdasliq ve muvafiq qanunvericilik mexanizmlerinin inkisafi vacibdir PerspektivleriSuni intellektin SI ekzistensial riskinin perspektivleri bu texnologiyanin inkisafinin hem potensial tehlukelerini hem de idare olunma yollarini ehate edir Irelideki onilliklerde SI ile bagli mumkun perspektivler asagidaki kimi umumilesdirile biler Inkisafin nezaret altinda saxlanmasi SI sistemlerinin inkisafinin erken merhelelerde ve daha sonra etik ve tehlukesizlik cercivelerinde idare olunmasi vacibdir Meselen suni intellektin oyrenme ve qerar qebul etme mexanizmleri uzerinde insan nezareti saxlamaq ucun mexanizmler yaradilmalidir SI nin etibarli ve tehlukesiz sekilde inkisafini temin etmek ucun beynelxalq seviyyede razilasdirilmis qaydalar ve tenzimleme mexanizmleri hazirlanmalidir Bu yanasma SI sistemlerinin mesuliyyetli istifade olunmasini temin ede biler SI nin etik ve insan merkezli olmasi SI sistemlerinin etik prinsiplere uygun dizayn olunmasi ve insan maraqlarina xidmet etmesi ucun muxtelif institutlar terefinden arasdirmalar aparilir Insan merkezli SI inkisafi SI sistemlerinin insanlar ucun faydali olmasini temin etmeyi hedefleyir Bu yolla SI nin meqsedlerinin insanlar ucun zerersiz ve faydali olmasi temin edilir SI tehlukesizliyi ve kibertehlukesizlik SI nin inkisafi ile yeni kibertehlukesizlik cagirislari ortaya cixir Avtonom SI sistemlerinin kiberhucumlara qarsi davamli olmasi ve manipulyasiya olunmamasi ucun tehlukesizlik mexanizmleri inkisaf etdirilmelidir Bu baximdan SI tehlukesizliyine xususi diqqet yetirmek lazimdir cunki nezaretden cixmis SI sistemleri boyuk zererler vura biler Qlobal nizam ve SI silahlanmasinin qarsisinin alinmasi SI nin guclu herbi alet olaraq istifadesi boyuk geosiyasi tehdidler yarada biler Bu meqsedle SI nin silahlanma sahesinde istifadesini tenzimlemek ucun qlobal miqyasda beynelxalq razilasmalara ehtiyac var SI silahlanmasinin tehlukesini minimuma endirmek ucun olkeler arasi etibarli ve seffaf emekdasliq onemlidir SI ve Isci gucunun yeniden qurulmasi Avtomatlasdirma ile is yerlerinin itirilmesi iqtisadi sistemlerin yeniden dusunulmesini teleb edir SI ile birlikde is bazarinda yaranacaq deyisikliklere uygunlasmaq ucun insanlar arasinda texniki bacariqlarin artirilmasina yonelik tehsil proqramlarinin guclendirilmesi vacibdir Bu yolla SI issizliyi ile elaqeli potensial iqtisadi cetinliklerin qarsisi alina biler Bilinmeyen tehlukelerin oyrenilmesi ve evvelden hazirlanmaq Suni intellektin inkisafi ile bagli bezi riskler hele tam basa dusulmeyib ve bilinmeyen riskler ehtimali yuksekdir Buna gore de SI ile bagli tehlukeleri ve tesirleri basa dusmek ucun muxtelif elmi tedqiqatlarin ve testlerin aparilmasi onemlidir Bu sahede daha genis multidissiplinar tedqiqatlar yeni riskler barede erken melumat elde etmekde ve lazimi hazirliqlar gormekde komekci ola biler Perspektivler SI nin irelide beseriyyete mumkun tehdidler yaratmasinin qarsisini almaga ve onu insanlarin faydasina yoneltmeye komek ede biler Istinadlar 26 3 The Ethics and Risks of Developing Artificial Intelligence Prentice Hall 2009 ISBN 978 0 13 604259 4 Existential risks Journal of Evolution and Technology 9 1 2002 1 31 Turchin Alexey Denkenberger David Classification of global catastrophic risks connected with artificial intelligence AI amp Society 35 1 2018 05 03 147 163 doi 10 1007 s00146 018 0845 5 ISSN 0951 5666 Bales Adam D Alessandro William Kirk Giannini Cameron Domenico Artificial Intelligence Arguments for Catastrophic Risk Philosophy Compass 19 2 2024 doi 10 1111 phc3 12964 First Oxford University Press 2014 ISBN 978 0 19 967811 2 Vynck Gerrit De The debate over whether AI will destroy us is dividing Silicon Valley Washington Post ingilis 2023 05 23 ISSN 0190 8286 2023 06 02 tarixinde arxivlesdirilib Istifade tarixi 2023 07 27 Godfather of artificial intelligence weighs in on the past and potential of AI www cbsnews com ingilis 25 March 2023 2023 04 15 tarixinde arxivlesdirilib Istifade tarixi 2023 04 10 Metz Cade How Could A I Destroy Humanity The New York Times ingilis 2023 06 10 ISSN 0362 4331 2023 11 11 tarixinde arxivlesdirilib Istifade tarixi 2023 07 27 How Rogue AIs may Arise yoshuabengio org ingilis 26 May 2023 2023 05 26 tarixinde arxivlesdirilib Istifade tarixi 2023 05 26 Turing Alan Intelligent machinery a heretical theory Speech Lecture given to 51 Society Manchester The Turing Digital Archive 1951 September 26 2022 tarixinde arxivlesdirilib Istifade tarixi 2022 07 22 Parkin Simon Science fiction no more Channel 4 s Humans and our rogue AI obsessions The Guardian ingilis 14 June 2015 5 February 2018 tarixinde arxivlesdirilib Istifade tarixi 5 February 2018 Turing Alan Can digital computers think Automatic Calculating Machines 2 epizod 15 May 1951 BBC Can digital computers think The AI Dilemma www humanetech com ingilis 2023 04 10 tarixinde arxivlesdirilib Istifade tarixi 2023 04 10 50 of AI researchers believe there s a 10 or greater chance that humans go extinct from our inability to control AI 2022 Expert Survey on Progress in AI AI Impacts ingilis 2022 08 04 2022 11 23 tarixinde arxivlesdirilib Istifade tarixi 2023 04 10 Yudkowsky Eliezer Artificial Intelligence as a Positive and Negative Factor in Global Risk PDF Global Catastrophic Risks 2008 308 345 Bibcode 2008gcr book 303Y 2 March 2013 tarixinde arxivlesdirilib PDF Istifade tarixi 27 August 2018 Sunak Rishi Rishi Sunak Wants the U K to Be a Key Player in Global AI Regulation Time June 14 2023 July 11 2023 tarixinde arxivlesdirilib Istifade tarixi October 31 2024 Roose Kevin A I Poses Risk of Extinction Industry Leaders Warn The New York Times ingilis 2023 05 30 ISSN 0362 4331 2023 05 31 tarixinde arxivlesdirilib Istifade tarixi 2023 06 03 Breuer Hans Peter Samuel Butler s the Book of the Machines and the Argument from Design Arxiv sureti 15 mart 2023 tarixinden Wayback Machine saytinda Arxivlesdirilib 15 mart 2023 at the Wayback Machine Modern Philology Vol 72 No 4 May 1975 pp 365 383 Dewey Daniel Research Priorities for Robust and Beneficial Artificial Intelligence PDF AI Magazine Association for the Advancement of Artificial Intelligence 2015 105 114 arXiv 1602 03506 Bibcode 2016arXiv160203506R 4 August 2019 tarixinde arxivlesdirilib PDF Istifade tarixi 10 August 2019 cited in AI Open Letter Future of Life Institute Future of Life Institute January 2015 10 August 2019 tarixinde arxivlesdirilib Istifade tarixi 2019 08 09 Dowd Maureen Elon Musk s Billion Dollar Crusade to Stop the A I Apocalypse The Hive ingilis April 2017 26 July 2018 tarixinde arxivlesdirilib Istifade tarixi 27 November 2017 AlphaGo Zero Starting from scratch www deepmind com ingilis 18 October 2017 2023 07 28 tarixinde arxivlesdirilib Istifade tarixi 2023 07 28 BiblioqrafiyaClark Jack Musk Backed Group Probes Risks Behind Artificial Intelligence Bloomberg com 2015a 30 October 2015 tarixinde arxivlesdirilib Istifade tarixi 30 October 2015