Со само една реченица стручњаците за вештачка интелигенција предупредуваат на заканата на оваа технологија за светот

Со соопштението од само една реченици со потписите на стотина стручњаци за вештачка интелигенција, вклучително и на Сем Олтмен чијашто компанија ги создаде ChatGPT, предупредија дека разгледувањето на ризиците од оваа технологија мора да бидат „глобален приоритет како и другите закани за општеството, како што се пандемиите и нуклеарната војна“.

ChatGPT, во моментов најраширената алатка на вештачката интелигенција (AI), е способен според упатствата на корисниците да генерира есеи, поеми и да одговара на нивните прашања за која и да е тема.

Големиот успех на ова програма поттикна своевидна „златна треска“ со милијарди долари вложувања во областа на вештачката интелигенција, меѓутоа критичарите и стручњаците предупредуваат на опасноста од неа.

Раширена е загриженоста дека ткн „четботови“ би можело да го преплават интернетот со дезинформации, дека пристрасните алгоритми ќе создаваат ограничени сознанија и информации, расистички содржини, некои несакани историски факти и податоци ќе бидат потиснати или отстранети или, пак, дека вештачката интелигенција ќе докрајчи низа индустриски сектори.

 

Суперинтелигентни машини

„Избегнувањето на заканите од изумирање поради вештачката интелигенција би требало да биде глобален приоритет како и другите закани за општеството, како што се пандемијата и нуклеарната војна“, се наведува во изјавата објавена на мрежната страница на американскиот непрофитен Центар за AI (вештачка интелигенција) безбедност.

Го потпишале повеќе од сто експерти за вештачката интелигенција, но и други јавни личноста, како на пример поранешната естонска претседателка Керсти Каљулаид или музичарката Гримс, поранешната сопруга на Илон Маск. Меѓу потписници се и стручњаците на технолошките гиганти како „Google“ и „Microsoft“.

Центарот истакнува дека целта на „сублимираното соопштение“ е покренување на дискусии за опасностите од технологијата.

Дел од потписниците, како Џефри Хинтон кој порано развивал технологии за подлогата на многу системи на вештачката интелигенција, и претходно испраќаа слични предупредувања.

Најмногу ги загрижува развојот на таканаречената општа вештачка интелигенција (AGI), што е широк термин за моментот кога машините ќе станат способни да се програмираат самите себеси и да извршуваат широк распон дејности. Стручњаците стравуваат дека тогаш повеќе нема да имаат контрола над тие суперинтелигентни машини, што би можело да има катастрофални последици врз животот на Земјата.

Соопштинието доаѓа неколку месеци откако Илон Мас и низа научници објавија отворено писмо со повик да се паузира развојот на таквите технологии додека не биде утврдени дека се безбедни. Тоа писмо наиде на критики, бидејќи дел од мејнстрим јавноста сметаше дека предупредувањата за општествен колапс „значително се претерани“.

Американската компјутерска лингвистка Емили Бендер, коавторка на цитирани трудови критични кон вештачката интелигенција, вели дека писмото од март, со потписите на стотици истакнати личности е преполно со „AI помпа“.

 

„Изненадувачки непристрасна“

Бендер и другите ги критикуваат компаниите кои развиваат вештачка интелигенција, бидејќи одбиваат да ги објават своите извори на податоци или да ги откријат начините на функционирање на нивните модел, што се нарекува ткн проблем на „црната кутија“.

Критикувани се поради можноста вештачката интелигенција да биде „тренирана“ на расистички, сексистички или политички пристрасен материјал, пишува агенцијата AFP.

Олтмен, кој во моментов е на турнеја низ светот во обидот да се обликуваат дискусиите за вештачката интелигенција, повеќепати укажа на опасноста за светот од технологијата којашто ја развива и неговата компанија.

„Доколку нешто тргне на лошо со вештачката интелигенција, нема да ви помогне гас-маска“, изјави Олтмен минатиот петок пред помала група новинари во Париз. Меѓутоа, ја бранеше одлуката на компаниите да не ги објавуваат своите методи, велејќи дека е важно само дали технологијата минува на „расниот тест“, каде што се покажало дека е „изненадувачки непристрасна“.