Մինչև Կովիդը ես ինձ կնկարագրեի որպես տեխնոլոգիական լավատես։ Նոր տեխնոլոգիաները գրեթե միշտ հայտնվում են չափազանցված վախերի մեջ։ Ենթադրվում էր, որ երկաթուղիները պետք է հոգեկան խանգարումներ առաջացնեին, կարծում էին, որ հեծանիվները կանանց անպտուղ կամ խելագար են դարձնում, իսկ վաղ էլեկտրաէներգիան մեղադրվում էր ամեն ինչի համար՝ բարոյական անկումից մինչև ֆիզիկական փլուզում։ Ժամանակի ընթացքում այս անհանգստությունները մարեցին, հասարակությունները հարմարվեցին, և կենսամակարդակը բարձրացավ։ Այս օրինաչափությունը բավականին ծանոթ էր, որ արհեստական բանականությունը, կարծես, հավանաբար կհետևեր դրան. խաթարող, երբեմն չարաշահվող, բայց, ի վերջո, կառավարելի։
Կովիդի տարիները խաթարեցին այդ վստահությունը՝ ոչ թե այն պատճառով, որ տեխնոլոգիաները ձախողվեցին, այլ որովհետև ինստիտուտները ձախողվեցին։
Աշխարհի մեծ մասում կառավարություններն ու փորձագիտական մարմինները անորոշությանը արձագանքեցին աննախադեպ սոցիալական և կենսաբժշկական միջամտություններով, որոնք արդարացվեցին ամենավատ դեպքերի մոդելներով և կիրառվեցին ուշագրավ վստահությամբ: Մրցակցող վարկածները մարգինալացվեցին, այլ ոչ թե քննարկվեցին: Արտակարգ միջոցառումները վերածվեցին երկարաժամկետ քաղաքականության: Երբ ապացույցները փոխվեցին, սխալների ընդունումը հազվադեպ էր, իսկ պատասխանատվությունը՝ ավելի հազվադեպ: Այս փորձը բացահայտեց ավելի խորը խնդիր, քան ցանկացած առանձին քաղաքականության սխալ. ժամանակակից հաստատությունները, կարծես, վատ հագեցած են անորոշությունը կառավարելու համար՝ առանց չափազանցության:
Այդ դասն այժմ մեծապես ազդում է արհեստական բանականության շուրջ բանավեճերի վրա։
Արհեստական բանականության ռիսկի բաժանումը
Ընդհանուր առմամբ, զարգացած արհեստական ինտելեկտի վերաբերյալ մտահոգությունները բաժանվում են երկու ճամբարի։ Մեկ խումբը՝ կապված Էլիեզեր Յուդկովսկու և Նեյթ Սոարեշի նման մտածողների հետ, պնդում է, որ բավականաչափ զարգացած արհեստական ինտելեկտը ինքնին աղետալիորեն վտանգավոր է։ Իրենց միտումնավոր խիստ ձևակերպմամբ՝ Եթե մեկը կառուցի այն, բոլորը կմահանանԽնդիրը վատ մտադրությունները չեն, այլ խթանները. մրցակցությունը երաշխավորում է, որ ինչ-որ մեկը կշեղվի վերահսկողությունից, և երբ համակարգը դուրս է գալիս իմաստալից վերահսկողությունից, մտադրությունները այլևս նշանակություն չունեն։
Երկրորդ ճամբարը, որը ներառում է այնպիսի գործիչներ, ինչպիսիք են Ստյուարտ Ռասելը, Նիք Բոստրոմը և Մաքս Թեգմարկը, նույնպես լուրջ է վերաբերվում արհեստական ինտելեկտի հետ կապված ռիսկերին, բայց ավելի լավատես է, որ համաձայնեցումը, զգույշ կառավարումը և աստիճանական տեղակայումը կարող են համակարգերը պահել մարդկային վերահսկողության տակ։
Իրենց տարաձայնություններին չնայած՝ երկու ճամբարներն էլ համաձայն են մեկ եզրակացության. արհեստական բանականության անսահմանափակ զարգացումը վտանգավոր է, և անհրաժեշտ է վերահսկողության, համակարգման կամ զսպման որոշակի ձև։ Նրանք տարաձայնություններ ունեն իրագործելիության և հրատապության հարցում։ Սակայն հազվադեպ է քննարկվում, թե արդյոք այդ զսպումը ապահովող հաստատությունները իրենք են համապատասխանում այդ դերին։
Կովիդը կասկածի տեղիք է տալիս։
Կովիդը պարզապես հանրային առողջապահության ճգնաժամ չէր, այլ անորոշության պայմաններում փորձագետների կողմից ղեկավարվող կառավարման կենդանի փորձ։ Անավարտ տվյալների առջև կանգնած՝ իշխանությունները բազմիցս ընտրում էին առավելագույն միջամտություններ, որոնք արդարացվում էին սպեկուլյատիվ վնասներով։ Այլախոհությունը հաճախ դիտարկվում էր որպես բարոյական ձախողում, այլ ոչ թե գիտական անհրաժեշտություն։ Քաղաքականությունը պաշտպանվում էր ոչ թե թափանցիկ ծախս-օգուտ վերլուծության միջոցով, այլ իշխանությանը դիմելով և հիպոթետիկ ապագայի վախով։
Այս օրինաչափությունը կարևոր է, քանի որ այն ցույց է տալիս, թե ինչպես են իրենց պահում ժամանակակից ինստիտուտները, երբ խաղադրույքները ձևակերպվում են որպես գոյաբանական։ Խթանները տեղափոխվում են դեպի վճռականություն, պատմողական վերահսկողություն և բարոյական որոշակիություն։ Սխալների ուղղումը դառնում է հեղինակության համար թանկ։ Զգուշացումը դադարում է գործիք լինելուց և դառնում է վարդապետություն։
Դասն այն չէ, որ փորձագետներն ունեն եզակի թերություններ։ Այն կայանում է նրանում, որ հաստատությունները չափազանց վստահությունը շատ ավելի հուսալիորեն են պարգևատրում, քան համեստությունը, հատկապես, երբ քաղաքականությունը, ֆինանսավորումը և հանրային վախը համընկնում են։ Երբ արտակարգ լիազորությունները կիրառվում են անվտանգության անվան տակ, դրանք հազվադեպ են կամավոր կերպով հանձնվում։
Սրանք հենց այն դինամիկան են, որն այժմ տեսանելի է արհեստական բանականության վերահսկողության քննարկումներում։
«Ի՞նչ կլինի, եթե» մեքենան
Պետական լայնածավալ միջամտության կրկնվող արդարացում է ենթադրական վատ գործողի առկայությունը. Ի՞նչ կլինի, եթե սա կառուցի ահաբեկիչը։ Ի՞նչ կլինի, եթե դա անի ավազակ պետությունը։ Այդ նախադրյալից է բխում այն փաստարկը, որ կառավարությունները պետք է գործեն կանխարգելիչ, մեծածավալ և հաճախ գաղտնի՝ աղետը կանխելու համար։
Կովիդի ժամանակ նմանատիպ տրամաբանությունը արդարացնում էր կենսաբժշկական հետազոտությունների լայնածավալ օրակարգերը, արտակարգ իրավիճակների թույլտվությունները և սոցիալական վերահսկողությունը: Պատճառաբանությունը շրջանաձև էր. որովհետև ինչ-որ վտանգավոր բան հզորություն տեղի ունենալու դեպքում պետությունը պետք է հիմա ձեռնարկի արտակարգ գործողություններ՝ գործողություններ, որոնք ինքնին պարունակում էին զգալի, վատ հասկացված ռիսկեր։
Արհեստական բանականության կառավարումն ավելի ու ավելի է ձևակերպվում նույն ձևով։ Վտանգը միայն այն չէ, որ արհեստական բանականության համակարգերը կարող են անկանխատեսելիորեն վարվել, այլև այն, որ այդ հնարավորության վախը կօրինականացնի մշտական արտակարգ կառավարումը՝ հաշվարկների, հետազոտությունների և տեղեկատվական հոսքերի կենտրոնացված վերահսկողությունը՝ այն հիմքով, որ այլընտրանք չկա։
Մասնավոր ռիսկ, հանրային ռիսկ
Այս բանավեճերում թերագնահատված տարբերություններից մեկը մասնավոր գործիչների կողմից առաջացած ռիսկերի և պետական իշխանության կողմից առաջացած ռիսկերի միջև է։ Մասնավոր ընկերությունները սահմանափակված են՝ անկատար, բայց նշանակալից՝ պատասխանատվությամբ, մրցակցությամբ, հեղինակությամբ և շուկայական կարգապահությամբ։ Այս սահմանափակումները չեն վերացնում վնասը, բայց ստեղծում են հետադարձ կապի օղակներ։
Կառավարությունները գործում են տարբեր կերպ։ Երբ պետությունները գործում են աղետների կանխարգելման անվան տակ, հետադարձ կապը թուլանում է։ Ձախողումները կարող են վերադասակարգվել որպես անհրաժեշտություն։ Ծախսերը կարող են արտաքինացվել։ Գաղտնիությունը կարող է արդարացվել անվտանգությամբ։ Ապագա ենթադրյալ վնասները դառնում են քաղաքականության լծակներ ներկայում։
Արհեստական բանականության մի քանի մտածողներ անուղղակիորեն ընդունում են սա: Բոստրոմը զգուշացրել է «փակման» հետևանքների մասին՝ ոչ միայն արհեստական բանականության համակարգերի, այլև խուճապի պահերին ստեղծված կառավարման կառուցվածքների պատճառով: Էնթոնի Ագիրեի գլոբալ զսպվածության կոչը, թեև տրամաբանորեն հետևողական է, հիմնված է միջազգային համակարգող մարմինների վրա, որոնց վերջին շրջանի համեստության և սխալների ուղղման ցուցանիշները վատն են: Նույնիսկ ավելի չափավոր առաջարկները ենթադրում են, որ կարգավորող մարմինները կարող են դիմակայել քաղաքականացմանը և առաքելության սողոսկմանը:
Կովիդը մեզ քիչ հիմք է տալիս վստահ լինելու այդ ենթադրության մեջ։
Վերահսկողության պարադոքսը
Սա հանգեցնում է արհեստական բանականության վերաբերյալ բանավեճի սրտում գտնվող անհանգստացնող պարադոքսի։ Եթե մեկը իսկապես հավատում է, որ զարգացած արհեստական բանականությունը պետք է սահմանափակվի, դանդաղեցվի կամ կանգնեցվի, ապա հենց կառավարություններն ու միջազգային հաստատություններն են, որոնք, ամենայն հավանականությամբ, կունենան դա անելու լիազորությունը։ Սակայն սրանք հենց այն գործող անձինք են, որոնց վերջին ժամանակներս ցուցաբերած վարքագիծը ամենաքիչ վստահությունն է ներշնչում այդ լիազորության զսպված, հետադարձելի օգտագործման հարցում։
Արտակարգ իրավիճակների շրջանակը կպչուն է։ Հիպոթետիկ ռիսկերը կառավարելու համար ձեռք բերված լիազորությունները հակված են պահպանվել և ընդլայնվել։ Հաստատությունները հազվադեպ են նվազեցնում իրենց սեփական կարևորությունը։ Արհեստական բանականության համատեքստում սա բարձրացնում է այն հավանականությունը, որ արհեստական բանականության ռիսկին արձագանքը ամրապնդում է փխրուն, քաղաքականացված վերահսկողության համակարգեր, որոնք ավելի դժվար է քանդել, քան ցանկացած առանձին տեխնոլոգիա։
Այլ կերպ ասած, վտանգը միայն այն չէ, որ արհեստական բանականությունը դուրս է գալիս մարդկային վերահսկողությունից, այլև այն, որ արհեստական բանականությունից վախը արագացնում է իշխանության կենտրոնացումը հաստատություններում, որոնք արդեն իսկ ցույց են տվել, որ դանդաղ են ընդունում սխալները և թշնամաբար են տրամադրված այլախոհության նկատմամբ։
Վերաիմաստավորելով իրական ռիսկը
Սա արհեստական բանականության նկատմամբ ինքնագոհության փաստարկ չէ, ոչ էլ ժխտում է, որ հզոր տեխնոլոգիաները կարող են իրական վնաս հասցնել։ Սա շրջանակը ընդլայնելու փաստարկ է։ Ինստիտուցիոնալ ձախողումն ինքնին գոյաբանական փոփոխական է։ Այն համակարգը, որը ենթադրում է բարեգործական, ինքնաուղղվող կառավարում, ավելի անվտանգ չէ, քան այն համակարգը, որը ենթադրում է բարեգործական, համաձայնեցված գերբանականություն։
Մինչև Կովիդը, տեխնոլոգիական հոռետեսության մեծ մասը խելամիտ էր վերագրել մարդկային բացասական կողմնակալությանը՝ մեր սերնդի մարտահրավերները եզակիորեն անկառավարելի համարելու միտումին։ Կովիդից հետո սկեպտիցիզմը ավելի շատ նման է փորձի և ավելի շատ՝ կողմնակալության։
Հետևաբար, արհեստական բանականության վերաբերյալ բանավեճի կենտրոնական հարցը միայն այն չէ, թե արդյոք մեքենաները կարող են համապատասխանել մարդկային արժեքներին, այլև այն, թե արդյոք ժամանակակից հաստատություններին կարելի է վստահել անորոշությունը կառավարելու հարցում՝ առանց այն ուժեղացնելու: Եթե այդ վստահությունը քայքայվել է, և Քովիդը ենթադրում է, որ այդպես է, ապա արհեստական բանականության լայնածավալ վերահսկողության կոչերը արժանի են առնվազն նույնքան մանրակրկիտ ուսումնասիրության, որքան տեխնոլոգիական անխուսափելիության մասին պնդումները:
Ամենամեծ ռիսկը գուցե այն չէ, որ արհեստական բանականությունը չափազանց հզոր դառնա, այլ այն, որ այդ հնարավորության նկատմամբ վախը արդարացնում է վերահսկողության այն ձևերը, որոնց հետ մենք հետագայում պարզում ենք, որ շատ ավելի դժվար է ապրել կամ խուսափել։
-
Ռոջեր Բեյթը Բրաունսթոունի կրթաթոշակառու է, Իրավունքի և տնտեսագիտության միջազգային կենտրոնի ավագ գիտաշխատող (2023 թվականի հունվար-ներկա), «Աֆրիկա՝ մալարիայի դեմ պայքարող» կազմակերպության խորհրդի անդամ (2000 թվականի սեպտեմբեր-ներկա) և Տնտեսական գործերի ինստիտուտի գիտաշխատող (2000 թվականի հունվար-ներկա):
Դիտեք բոլոր հաղորդագրությունները