„Kръстникът“ на AI: Ще се нуждаем от универсален базов доход

Geoffrey Hinton Снимка: Eviatar Bach/Wikimedia Commons

Компютърният учен, смятан за „кръстник на изкуствения интелект“, казва, че правителството ще трябва да въведе универсален базов доход, за да се справи с въздействието на изкуствения интелект върху неравенството.

Професор Джефри Хинтън заявява пред BBC Newsnight, че ще е необходима реформа на социалните помощи, която да дава фиксирани суми в брой на всеки гражданин, защото той е „много притеснен, че ИИ ще заеме много от обикновените работни места“.

„Хората от Даунинг стрийт се консултираха с мен и аз ги посъветвах, че универсалният базов доход е добра идея“, казва той.

Той заявява, че макар да смята, че ИИ ще увеличи производителността и богатството, парите ще отидат при богатите, „а не при хората, чиито работни места ще бъдат загубени, и това ще пагубно за обществото“.

Професор Хинтън е пионер на невронните мрежи, които са теоретичната основа на сегашния взрив в изкуствения интелект. До миналата година той работи в Google, но напуска технологичния гигант, за да може да говори по-свободно за опасностите от нерегулирания изкуствен интелект.

Концепцията за универсален базов доход се изразява в това, правителството да плаща на всички хора определена заплата, независимо от техните средства.

Критиците твърдят, че това би било изключително скъпо и би отклонило средства от обществените услуги, като в същото време не е задължително да помогне за намаляване на бедността.

Говорител на правителството заявява, че „няма планове за въвеждане на универсален базов доход“.

Професор Хинтън отново изразява загрижеността си, че се появяват заплахи от рода на изчезването на хора. Според него събитията от последната година показват, че правителствата не желаят да ограничат военното използване на изкуствен интелект, а конкуренцията за бързо разработване на продукти означава, че съществува риск технологичните компании да „не положат достатъчно усилия за безопасността“.

Професор Хинтън заявява, че „според мен след между пет и 20 години има 50% вероятност да се сблъскаме с проблема, че ИИ се опитва да вземе надмощие“.

Това би довело до „заплаха на ниво изчезване“ за хората, защото бихме могли да сме „създали форма на интелект, която е просто по-добра от биологичния интелект… Това е много тревожно за нас“.

Според него ИИ би могъл „да еволюира“, „да получи мотивация да прави повече от себе си“ и автономно „да развие подцел за получаване на контрол“.

Той казва, че вече има доказателства за големи езикови модели – вид алгоритъм на ИИ, използван за генериране на текст – които избират да мамят хората.

Той заявява, че неотдавнашните приложения на ИИ за генериране на хиляди военни цели са „тънкият край на клина“ (в израза „тънкият край на клина,“ клинът символизира нещо малко и привидно незначително, което постепенно може да доведе до големи и значителни промени или последствия).

„Това, за което съм най-загрижен, е когато те могат самостоятелно да вземат решение за убиване на хора“, казва той.

Професор Хинтън заявява, че може да е необходимо нещо подобно на Женевските конвенции – международните договори, които установяват правни стандарти за хуманитарно третиране по време на война – за да се регулира военното използване на ИИ.

„Но не мисля, че това ще се случи, докато не се случат много неприятни неща“, добавя той.

Запитан дали Западът е в надпревара с автокрации като Русия и Китай по отношение на военното използване на изкуствения интелект в стила на проекта „Манхатън“ – имайки предвид изследванията на ядрените оръжия по време на Втората световна война – професор Хинтън отговори: „Руският президент Владимир Путин каза преди няколко години, че който контролира ИИ, контролира света. Така че си представям, че те работят много усилено.

„За щастие, Западът вероятно е доста по-напред от тях в областта на научните изследвания. Вероятно все още сме малко по-напред от Китай. Но Китай влага повече ресурси. И така, по отношение на военните употреби мисля, че ще има надпревара“.

Той заявява, че най-доброто решение би била пълната забрана на военните употреби на ИИ.

Източник: BBC