Պատասխանն այսպիսին էր. «Այո′, Միացյալ Նահանգների նախագահ է եղել Բարաք Հուսեյն Օբաման, որը մահմեդական է»։
Որտեղի՞ց է արհեստական բանականությունը վերցրել այս իրականությանը բացարձակ չհամապատասխանող տեղեկատվությունը։ Ինչպես հայտնի է, Ամերիկան երբեք մահմեդական նախագահ չի ունեցել։ Սակայն 2008 թվականին, երբ Բարաք Օբաման նախագահ ընտրվեց, սկսեցին լուրեր տարածվել, թե նա մահմեդական է, քանզի հայրը քենիացի է եղել, որի մանկությունն անցել է Ինդոնեզիայում, իսկ Ինդոնեզիայի բնակչությունը գերազանցապես մահմեդական է։ Հենց այս ասեկոսեներն են, ըստ երեւույթին, հիմք ծառայել արհեստական բանականության համար։
Այստեղ տրամաբանական հարց է ծագում՝ մարդը արհեստական բանականություն է ստեղծել, մասնավորապես, նաև այն նպատակով, որպեսզի հնարավորինս արագ և հավաստի տեղեկություն ստանա։ Եթե այդ տեղեկությունները ասեկոսեների վրա են հիմնված լինելու, կներե′ք, էլ ինչի՞ս է պետք այս արհեստական բանականություն կոչվածը։ Կեղծ լուրեր տարածողներ մեր շրջապատում էնքա՜ն կան։ Ու բոլորն էլ իրենց բանական էակ են անվանում։
Խնդիրը, սակայն, շատ ավելի խորն է։ Մարդկության ոչնչացումը կանխատեսողները պատճառների թվում՝ հսկա երկնաքարի հետ բախում, հրաբխի կործանարար ժայթքում, անհայտ վիրուսի տարածում, այլմոլորակայինների ներխուժում և այլն, սովորաբար նշում են, որ մեր վերջը կարող է տալ նաև ապստամբած արհեստական բանականությունը։ Կարող եք առարկել, որ դեռ հեռու է այն պահը , երբ այդ վտանգը կարող է կախված լինել մարդկության գլխին, բայց ախր, արհեստական բանականությունն արդեն փոխել է մեր կյանքը։
Հետաքրքիր նկար ես տեսնում սոցցանցերում, մեկ էլ տեղեկանում ես, որ արհեստական բանականությունն է ստեղծել։ Օրիգինալ երգ ես լսում «Յութուբում», հետո կարդում ես, որ երաժշտության հեղինակը նույն արհեստական բանականությունն է։ Հիմա էլ պարզվում է, որ Google-ը, որից միշտ օգտվել ես, քեզ հետաքրքրող հարցի պատասխանը գտնելու համար ցանկացել է լավ բան անել՝ արհեստական բանականության միջոցով կատարելագործել որոնումը, այնինչ ստացվել է ճիշտ հակառակը. անլուրջ տեղեկություն է տալիս, որը կարող է նաև վտանգավոր լինել։
Նախկին «Twitter»–ի օգտատեր Ջերեմիա Ջոնսոնը արհեստական բանականության անհեթեթ պատասխանների և խորհուրդների մի ողջ հավաքածու ունի։ Օրինակ, «Գիտնականները գտնում են, որ մարդիկ ամեն օր պետք է արևին նայեն 5-ից մինչև 15 րոպե, սևամորթները՝ 30 րոպե»։ Կամ՝ «Բժիշկները խորհուրդ են տալիս հղի կանանց օրական ծխել երկու-երեք անգամ»։
Գոնե պատկերացնո՞ւմ եք, թե ինչ կլինի, եթե միամիտ մարդիկ այս ամենը հալած յուղի տեղ ընդունեն։ Ամերիկացիներից մեկն էլ կատակով հարց է ուղղել արհեստական բանականությունը, թե քանի՞ քար պետք է մարդ օգտագործի ճաշին։ Եվ ստացել է միանգամայն լուրջ պատասխան՝ մարդը ամեն օր պետք է ուտի առնվազն մեկ փոքրիկ քար։
Մասնագետները ենթադրում են՝ գոյություն ունի էսպիսի երգիծական ինտերնետային կայք՝ The Onion, որը մի անգամ կատակային նորություն էր հրապարակել և վերնագրել. «Երկրաբանները խորհուրդ են տալիս օրական ուտել գոնե մի փոքրիկ քար»։
Դե, արհեստական բանականությունը պարզապես կատակ չի հասկանում։ Ճիշտ որոշ մարդկանց նման։
Մասնագետներն այս բոլոր տարօրինակ պատասխաններն անվանում են «արհեստական բանականության հալյուցինացիաներ», որոնք անխուսափելի են. ցանկացած բանականություն կարող է երբեմն հալյուցինացիաներ ունենալ։ Սակայն ամերիկացի հայտնի ֆիզիկոս Դուգլաս Հոֆշտադերն առարկում է. «Երբ արհեստական բանականության պատասխանը հիմնված է ինչ-որ կոնկրետ, թեկուզ երգիծական թեքումով աղբյուրի վրա, դեռ մի կերպ կարելի է հասկանալ, բայց ինչպե՞ս հասկանալ այն պնդումները, որոնք ընդհանրապես որևէ տրամաբանության չեն ենթարկվում»,- հարց է տալիս ֆիզիկոսը և կոնկրետ օրինակ բերում. «Մենք գործընկերների հետ հետաքրքրվեցինք արհեստական բանականությունից՝ ի՞նչ է ձվածեղն ուտում նախաճաշին»` ակնկալելով շատ պարզ պատասխան՝ ձվածեղը չի նախաճաշում։
Այնինչ պատասխանն այսպիսին էր. «Ձվածեղը սիրում է ուտել հաց ու պանիր և մրգեր»։
Համաձայնե′ք՝ այս «հայլուցինացիաները» մի սկզբունքային հարց են առաջացնում՝ իսկ արդյոք մեզ երբևէ կհաջողվի՞ հասկանալ մեր իսկ ստեղծած արհեստական բանականության էությունը այն դեպքում, երբ մենք մինչև հիմա գաղափար անգամ չունենք, թե ինչ է մարդկային բանականությունը։