«ԲԱՆԱԿԱՆՈՒԹԵԱՆ» ՃԱՄԲԱՆ

Ամերիկացի գիտնական ու ձեռներէց Ճոզըֆ Նայ հետամուտ է, որ մարդը ըլլայ օղակին վրայ։ Ան դրական բոլոր երեսակները կը թուէ արհեստական բանականութեան։ Նայ մտահոգ է նաեւ, թէ մարդուն կողմէ ճամբայ ելած, ապա դանդաղօրէն հաստատուած արհեստական բանականութիւնը կամ անոր լծակից ու յարակից մասերը կրնան յանկարծ չարիքի վերածուիլ։ Այդ չարիք կոչուածը կրնայ արագօրէն աճիլ եւ ունենալ անկանխատեսելի հետեւանքներ։

Բաց աստի, հարցը միայն վերոյիշեալ մտավախութիւնները չեն։ ԱՄՆ-Չինաստան մրցակցութիւնը պատճառ կրնայ դառնալ, որ համայն մարդկութիւնը լուրջ վտանգներու ենթարկուի։ Թէեւ պատերազմները աշխարհը դարձուցած են վառօդի ու արեան դաշտ, սակայն, մարդկութիւնը կրնայ աւելի տուժել, որովհետեւ այդ երկու երկիրներուն միջեւ կայ պայքար մը։ Անշուշտ, խօսքը կը վերաբերի արհեստական բանականութեան նուրբ շերտերուն, որովհետեւ երկու գերտէրութիւններուն միջեւ կ՚ընթանայ պայքար մը, որ ամբողջ մարդկութեան համար կրնայ դառնալ իսկական սպառնալիք։ Գիտնականներ եւ նախաձեռնողներ ազդարարութիւններով հանդէս կու գան հաշուի առնելով վտանգները, որոնցմէ խուսափելու համար հարկ է մարդ արարածին կեդրոնական դէմք մնալու ընտրանքն ու որոշումը։

Միւս կողմէ, արհեստական բանականութեան ու ազգային անվտանգութեան կապակցութեամբ Ճոզըֆ Նայ հրապարակած է յօդուած մը, զոր յապաւումներով կը ներկայացնենք ստորեւ։

*

Մարդը գործիք պատրաստող բանական էակ է։ Բայց կրնա՞նք արդեօք վերահսկել մեր պատրաստած գործիքները: Երբ Ռոպերթ Օփենհայմըր եւ այլ բնագէտներ 1940-ականներուն ստեղծեցին միջուկային զէնքը, անոնք կը վախնային, որ իրենց գիւտը կրնայ յանգեցնել մարդկութեան ոչնչացման: Այդ դեռ տեղի չէ ունեցած, սակայն միջուկային զէնքի վերահսկումը այդ ժամանակուընէ ի վեր տեւական մարտահրաւէր է:

Այժմ բազմաթիւ գիտնականներ կը դիտարկեն արհեստական բանականութիւնը՝ ալկորիթմներ եւ ծրագրաշարեր, որոնք հնարաւորութիւն կու տան մեքենաներուն կատարել մարդկային բանականութիւն պահանջող առաջադրանքներ, ինչ որ նոյնքան փոխակերպիչ գործիք է: Ինչպէս ընդհանուր նշանակութեամբ նախկին ճարտարագիտութիւնները, արհեստական բանականութիւնը եւս ունի բարիի եւ չարի հսկայական ներուժ: Քաղցկեղի հետազօտութեան հարցով ան կրնայ քանի մը վայրկեանէն ուսումնասիրել եւ ամփոփել աւելի շատ ուսումնասիրութիւններ, քան մարդկային խումբ մը՝ ամիսներու ընթացքին: Նմանապէս, ան կրնայ արժանահաւատօրէն կանխատեսել սպիտակուցի շերտերու ձեւերը, որոնց բացայայտումը երկար տարիներ կը պահանջէ հետազօտողներէն։

Բայց, արհեստական բանականութիւնը նաեւ կը նուազեցնէ գինն ու մուտքի խոչընդոտները յանցագործներու, ահաբեկիչներու եւ այլ չար մտադրութիւն ունեցողներու, որոնք կրնան վնաս պատճառել: Ամերիկեան RAND հետազօտական կեդրոնը վերջերս հրապարակուած ուսումնասիրութեան մէջ նշած է, որ «ջրծաղիկի պէս վտանգաւոր ժահրի վերածնման արժէքը կրնայ ըլլալ ընդամէնը 100 հազար տոլար, իսկ անոր դէմ բարդ պատուաստ մշակելը՝ աւելի քան 1 միլիառ տոլար»:

Աւելին, բազմաթիւ փորձագէտներ անհանգիստ են, որ արհեստական բանականութիւնը այնքան զարգանայ, որ սկսի կառավարել մեզ։ Որքա՛ն ժամանակ կը պահանջուի մշակելու այսպիսի գերխելացի մեքենաներ, որոնք յայտնի են որպէս արհեստական ​​ընդհանուր բանականութիւն։ Այս առումով գնահատականները կը տատանուին՝ քանի մը տարիէն մինչեւ քանի մը տասնամեակ: Բայց ինչ որ ալ ըլլայ, արհեստական բանականութեան այսօրուան ոչ-ընդհանուր վիճակէն աճող վտանգները աւելի ու աւելի մեծ ուշադրութիւն կը պահանջեն:

Քառասուն տարի շարունակ «Aspen Strategy Group»ը, որ բաղկացած է պետական նախկին ​​պաշտօնեաներէ, գիտնականներէ, գործարարներէ եւ լրագրողներէ, ամէն ամառ կը հանդիպին քննարկելու ազգային անվտանգութեան հիմնական խնդիրները: Անցեալ նիստերուն անդրադարձ կատարուած է՝ միջուկային զէնքին, սիպեր յարձակումներուն եւ Չինաստանի վերելքին: Այս տարի անոնք կեդրոնացած են ազգային անվտանգութեան ոլորտի մէջ արհեստական բանականութեան ազդեցութեան վրայ՝ ուսումնասիրելով թէ՛ օգուտները եւ թէ՛ վտանգները:

Առաւելութիւններէն են հետախուզական տուեալներու ահռելի քանակը տեսակաւորելու աւելի մեծ կարողութիւնը, վաղ նախազգուշացման համակարգերու ուժեղացումը, փոխադրական բարդ համակարգերու բարելաւումն ու համակարգչային քոտերու ստուգումը՝ համացանցային անվտանգութիւնը բարելաւելու համար: Բայց կան նաեւ մեծ վտանգներ. ինչպէս՝ ինքնակառավարուող զէնքերու յառաջընթացը, ծրագրաւորման ալկորիթմներու պատահական սխալները եւ թշնամական AI-ները (արհեստական բանականութիւն), որոնք կրնան թուլացնել համացանցային անվտանգութիւնը:

Չինաստան հսկայական ներդրումներ կը կատարէ արհեստական բանականութեան սպառազինութիւններու մրցավազքին մէջ՝ ունենալով կառուցուածքային որոշ առաւելութիւններ: Արհեստական բանականութեան երեք հիմնական միջոցները հետեւեալներն են՝ մոտելներ պատրաստելու տուեալներ, խելացի ճարտարագէտներ՝ ալկորիթմներ մշակելու համար, նաեւ համակարգչային հզօրութիւն՝ զանոնք գործարկելու համար:

Տուեալներուն հասանելիութիւն ստանալու մասով Չինաստան նուազ կաշկանդուած է։ Չինաստան ունի նաեւ երիտասարդ, խելացի ճարտարագէտներ: Սակայն ան կը զիջի ԱՄՆ-ին՝ յատկապէս յառաջադէմ միքրոչիփերու հարցով, որոնց վրայ արձանագրուած կ՚ըլլան հիմնաւոր տեղեկութիւնները, որոնք կ՚ապահովեն արհեստական բանականութեան համակարգչային հզօրութիւնը:

Ամերիկեան վերահսկողութիւնը կը սահմանափակէ Չինաստանին արտահանել այս յառաջատար չիփերը, ինչպէս նաեւ զանոնք պատրաստող հոլանտական թանկարժէք վիմագրական մեքենաները: «Aspen»ի փորձագէտները միաձայն էին, որ Չինաստան մէկ կամ երկու տարի ետ է ԱՄՆ-էն։ Բայց իրավիճակը կը մնայ անկայուն: Նախագահներ Ճօ Պայտըն եւ Շի Ծինփինկ երբ հանդիպեցան անցեալ տարուան աշնան, պայմանաւորուեցան երկկողմանի քննարկումներ կատարել արհեստական բանականութեան վերաբերեալ։ Սակայն «Aspen»ի մէջ քիչ լաւատեսութիւն կար արհեստական բանականութեան սպառազինութեան վերահսկման հեռանկարներու վերաբերեալ:

Յատկապէս լուրջ վտանգ կը ներկայացնեն ինքնակառավարուող զէնքերը։ ՄԱԿ-ի մէջ աւելի քան մէկ տասնամեակ դիւանագիտութենէ յետոյ երկիրները չեն կարողացած համաձայնութեան գալ ինքնակառավարուող մահաբեր զէնքի արգելքի շուրջ: Միջազգային մարդասիրական իրաւունքը կը պահանջէ, որ զինուորականները յստակ տարբերակում դնեն զինեալներու եւ խաղաղ բնակիչներու միջեւ, իսկ Փենթակոն վաղուց կը պահանջէ, որ մարդը ըլլայ որոշումներ կայացնելու օղակին մէջ՝ նախքան զէնքերը կրակելը։ Բայց որոշ իրավիճակներու մէջ, օրինակ՝ հրթիռներէն պաշտպանուելու համար, մարդկային միջամտութեան ժամանակ չկայ:

Քանի որ բնագիրը կարեւոր է, մարդիկ պէտք է խստօրէն սահմանեն, թէ ի՛նչ կրնան եւ ինչ չեն կրնար ընել զէնքերը: Այլ խօսքով՝ մարդը պէտք է ըլլայ օղակին վրայ, այլ ոչ թէ օղակին մէջ: Այս միայն տեսական հարց մը չէ։ Ռուս-ուքրանական պատերազմին ռուսերը կը խլացնեն ուքրանական զինեալ ուժերու ազդանշանները՝ ստիպելով ուքրանացիները ծրագրաւորելու իրենց սարքերը այնպէս, որ անոնք կրակելու ինքնավար ու վերջնական որոշումներ կայացնեն։

Արհեստական բանականութեան ամենասարսափելի վտանգներէն մէկը կենսաբանական պատերազմի կամ ահաբեկչութեան մէջ անոր կիրառումն է: 1972-ին, երբ երկիրները համաձայնեցան արգիլել կենսաբանական զէնքը, ընդհանուր համոզումը այն էր, որ նման միջոցները օգտակար չեն՝ յետհարուածի վտանգի պատճառով: Բայց արհեստական կենսաբանութեան պարագային հնարաւոր է ստեղծել այնպիսի զէնք, որ ոչնչացնէ խումբ մը, բայց ոչ միւսը: Կամ ահաբեկիչ մը, որ կը հասնի տարրալուծարանը գտնուող նիւթերուն, կրնայ պարզապէս ցանկալ սպաննել որքան հնարաւոր է շատ մարդ, ինչպէս այդ մէկը պատահեցաւ Ճաբոնի մէջ, 1995-ին: Անոնք կ՚օգտագործէին սարին կազը, որ վարակիչ չէ, մինչդեռ արհեստական ​​բանականութիւնը անոր ժամանակակից համարժէքը կրնայ օգտագործել՝ վարակիչ ժահր մշակելու համար:

1968-ին պետութիւնները համաձայնութեան եկան միջուկային զէնքի տարածումը արգիլող պայմանագրի շուրջ, որ այժմ ունի 191 անդամ: Աթոմային ուժանիւթի միջազգային գործակալութիւնը պարբերաբար կը ստուգէ ներքին ուժանիւթի ծրագիրները՝ հաստատելու համար, որ անոնք կ՚օգտագործուին բացառապէս խաղաղ նպատակներով։ Եւ հակառակ Պաղ պատերազմի ժամանակուան խիստ մրցակցութեան՝ միջուկային ճարտարագիտութեանց մէջ յառաջատար երկիրները 1978-ին համաձայնեցան զսպուածութիւն ցուցաբերել աւելի զգայուն ճարտարագիտութեանց եւ գիտելիքներու արտահանման հարցով: Այս նախադէպը արհեստական բանականութեան համար որոշ ուղիներ կը յուշէ, թէեւ ակնյայտ տարբերութիւններ կան երկու ճարտարագիտութիւններուն միջեւ:

Միւս կողմէ, ճարտարագիտութիւնը աւելի արագ կ՚ընթանայ քաղաքականութեան կամ դիւանագիտութեան բաղդատմամբ՝ մանաւանդ երբ խնդրոյ առարկայ ըլլան շուկայական շահերը։ Իբր այդ, «Aspen Strategy Group»ը այս տարուան հանդիպման աւարտին շեշտեց, որ կառավարութիւնները պէտք է արագացնեն իրենց քայլերը:

ՍԱԳՕ ԱՐԵԱՆ

Երեւան

Երեքշաբթի, Հոկտեմբեր 15, 2024