Претставите на црните нацистички војници генерирани со вештачка интелигенција предупредуваат на моќта на технолошките гиганти

За оние на технолошката конференција на фестивалот во американскиот град Остин, скандалот што избувна откако четбот на Google – Gemini создаде слики од црни и азиски нацистички војници е предупредување за моќта што вештачката интелигенција (ВИ) може да им ја даде на технолошките гиганти.

Сундар Пичаи, шефот на Google, минатиот месец ги критикуваше недостатоците во апликацијата Gemini на компанијата како „целосно неприфатливи“ откако гафовите како што се сликите на етнички различни нацистички војници ја принудија компанијата привремено да ги оневозможи корисниците да генерираат слики од луѓе.

Корисниците на социјалните мрежи го исмеваа и го критикуваа Google за неточни историски претстави како што е црна американска сенаторка од 1800-те, затоа што првата таква функционерка беше избран дури во 1992 година.

„Сигурно се збркавме кога станува збор за создавање слики“, рече коосновачот на Google, Сергеј Брин, на неодамнешниот хакатон, настан каде што компјутерските програмери и другите вклучени во развојот на софтвер интензивно соработуваат на проекти посветени на вештачката интелигенција.

Додаде дека компанијата требало потемелно да ги тестира Gemini.

Луѓето на технолошката конференција „South by Southwest“ во Остин, во сјоузната држава Тексас, рекоа дека грешките на Gemini ја нагласуваат прекумерната моќ што неколку компании ја имаат над платформите за вештачка интелигенција што ќе го промени начинот на кој луѓето живеат и работат.

„Во суштина, (Gemini) беа премногу ‘разбудени’“, рече Џошуа Вивер, адвокат и технолошки претприемач, што би значело дека Google отишол предалеку во своите напори да промовира инклузивност и различност.

Google наскоро ги поправи своите грешки, но основниот проблем останува, рече Чарли Бургојн, шеф на тексашката лабораторија за применети науки „Valkyrie“. Исправките на Gemini од страна на Google ги изедначи со ставањето фластер на прострелна рана.

Иако Google имаше многу време да ги усоврши своите производи, сега се трка со Microsoft, OpenAI, Anthropic и другите за превласт во областа на вештачката интелигенција, истакна Вивер, додавајќи дека „тие се движат побрзо отколку што знаат да се движат”.

Грешките направени во обидот да се биде културолошки чувствителен се извор на расправии, особено со оглед на тензичната политичка поделеност во Соединетите држави, ситуација што ја влошила платформата Х на Илон Маск, порано Twitter.

„Луѓето на Twitter ќе бидат многу среќни да ја прослават секоја срамна работа што се случува во технолошкиот сектор“, вели Вивер, додавајќи дека реакцијата на гафот на нацистичкиот војник е „пренадуена“.

Непријатноста, сепак, го доведува во прашање степенот на контрола што корисниците на алатките за вештачка интелигенција ја имаат врз информациите, според Вивер.

Во наредната деценија, количеството информации или дезинформации произведени од вештачката интелигенција би можеле да ги засенат оние што ги произведуваат луѓето, што значи дека оние кои управуваат со заштитните мерки на вештачката интелигенција ќе имаат огромно влијание врз светот, смета Вивер.

 

Пристрасност

Карен Палмер, наградувана креаторка за измешана реалност во „Interactive Films Ltd.“, вели дека би можела да замисли иднина каде некој ќе влезе во роботакси и „ако вештачката интелигенција ве скенира и мисли дека ве гонат, ќе бидете одведен во локалната полициска станица“, наместо до посакуваната дестинација.

Вештачката интелигенција се обучува на огромни количества податоци и може да се примени на сè поголем опсег задачи, од создавање слики или звук до одлучување кој може да добие заем или дали лекарскиот преглед открил рак.

Но, тие податоци доаѓаат од свет полн со културолошка пристрасност, дезинформации и социјална нееднаквост, интернет содржини што може да вклучуваат неврзан разговор меѓу пријатели или намерно претерани и провокативни објави, а моделите со вештачка интелигенција не можат да го разберат тоа.

Инженерите на Google се обидувале да ги урамнотежат алгоритмите на Gemini за да обезбедат резултати кои подобро ја одразуваат човечката различност. Меѓутоа, тој обид им се удри од главата.

„Може да биде доста сложено, чувствително и суптилно да се утврди каде е пристрасноста и како таа е вклучена“, рече технолошкиот адвокат Алекс Шахрестани од „Promise Legal“.

Дури и добронамерните инженери вклучени во обуката на вештачката интелигенција не можат да ги игнорираат сопствените животни искуства и потсвесните предрасуди во тој процес, веруваат тој и другите.

Бургојн од лабораторијата „Valykrie Labs“, исто така, ги опоменува технолошките гиганти дека кријат како генеративната вештачка интелигенција функционира во „црните кутии“ за корисниците да не можат да откријат скриени пристрасности.

„Производствените можности (на содржината) досега го надминуваат нашето разбирање за методологијата“, вели тој.