Извештај

Вештачката интелигенција мора да се скроти

Потребна е регулација за да се избегнат штетните последици

Aлатките со вештачка интелигенција може да се користат за измами, да претставуваат безбедносни закани и со голема брзина да креираат лажни вести и штетни дезинформации. Се случило да предизвикаат и самоубиство.

Но, тие немаат само вакви негативни ефекти. Истовремено, некои од овие алатки помагаат побрзо да се открие говорот на омраза на интернет, а корисни се и во образованието, науката и при информирањето. Оттаму исклучително е важно и кој ги користи и кој ги контролира напредните технологии.

Ваков заклучок може да се извлече од излагањата на десeтина експерти што учествуваа на Меѓународниот симпозиум „Како вештачката интелигенција да се интегрира во наставата и медиумите“, кој се одржа вчера во Скопје во организација на Институтот за комуникациски студии (ИКС) и Организацијата за глобален развој и образование ИРЕКС.

„Лани еден човек во Белгија се самоуби откако зборувал со четбот. Може да се случи голема штета ако нема доволно разбирање за тоа како функционира вештачката интелигенција (ВИ)“, објасни Томас Гуритин, експерт за разговорна вештачка интелигенција и четботови.

Заради вакви трагични случки, Гуритин верува дека овие технологии мора да се создаваат со јасни правила. Вели дека се случува ВИ да имитира експерти што може да биде голема опасност за јавноста бидејќи е доведена во заблуда.

Експертите предупредуваат дека оваа технологија може лесно да се злоупотреби и со експоненцијална брзина да се создаваат дезинформации. За илустрација, OpenAI алатката може да создаде целосна вест за 30 секунди.

Јанис Компатсијарис, истражувач во Центарот за истражување и технологија во Солун, смета дека проблемот со лажни вести креирани со помош на овие алатки всушност може да се реши со истата технологија која би препознала дали одредени содржини се создадени или манипулирани од вештачка интелигенција. Тој вели дека во институтот во кој работи веќе развиваат алгоритми за таква цел.

И додека креаторите на ВИ алатките се обидуваат да ги подобрат своите алгоритми, другите истражувачи се трудат да го подобрат својот софтвер за детекција на вештачки создадени содржини.

„До одреден степен тоа е како трка во вооружување која никогаш не престанува“, кажа Компатсијарис за БИРН.

Регулирање и етичко користење на ВИ

За да се ублажат негативните ефекти, говорниците ја потенцираа потребата за едукација. Во американскиот конгрес лани бил предложен „Закон за ВИ писменост“ (AI Literacy Act) чија цел е да се зголеми дигиталната писменост и знаењето за вештачката интелигенција во училиштата, но и на работните места.

На ниво на Европската Унија, пак, подолго време во тек се дискусии за носење на таков закон, кој би требало да ја регулира вештачката интелигенција преку пристап базиран на оценување на ризикот од различните технологии.

Се прави разлика помеѓу ниска, средна, висока и неприфатлива ризична технологија. На пример, технологии што користат биометриски податоци или се наменети за критична инфраструктура (како јавен транспорт) се сметаат за високо ризични. А за ниско ризични технологии, пак, се сметаат видео игри кои користат ВИ или филтри за спам. Впрочем, во ниско ризичните спаѓаат повеќето ВИ технологии.

Според Андреј Дамески, доктор по филозофија и етика кој има изработувано академски трудови за етичката димензија на оваа технологија, најголем проблем е користењето на вештачката интелигенција за воени цели, но проблем е и тоа како  големите корпорации ја употребуваат оваа технологија.

„Вештачката интелигенција е етички неутрална технологија, но не е гарантирано дека таа ќе донесе морално позитивни ефекти“, заклучи Дамески.

Фирмата Textgain е една од оние кои ВИ го користат за позитивни цели. Нејзината проектна менаџерка Лидија Ел-Хури за БИРН вели дека оваа компанија направила алатка за мониторинг на говор на омраза на социјалните мрежи која функционира на 24 јазици.

„Контролната табла идентификува зборови и фрази кои се разликуваат по токсичност или кои може да се квалификуваат како заканувачки или насилни. Технологијата што ја развивме во Textgain ни овозможува автоматски да детектираме говор на омраза и дезинформации во обем и на начин што човекот не би можел да го стори тоа“, вели Ел-Хури за БИРН.

Наскоро се очекува и македонскиот и албанскиот јазик да бидат дел од платформата на Textgain, кој соработува со Институтот за комуникациски студии.