Родителите на AI: “Фирмите- създатели трябва да бъдат държани отговорни”

човек работи с ии

Мощните системи за изкуствен интелект застрашават социалната стабилност 

 Компаниите за изкуствен интелект трябва да носят отговорност за вредите, причинени от техните продукти, предупреди група от старши експерти, включително двама „кръстници“ на технологията.

Изявлението във вторник беше направена, когато международни политици, технологични компании, академици и фигури от гражданското общество се подготвят да се съберат в Bletchley Park следващата седмица за среща на върха относно безопасността на ИИ, съобщи The Guardian.

Съавтор на предложенията за политика от 23 експерти каза, че е „крайно безразсъдно“ да се преследват все по-мощни AI системи, преди да се разбере как да бъдат безопасни.

„Време е да се заемем сериозно с напредналите AI системи“, каза Стюарт Ръсел, професор по компютърни науки в Калифорнийския университет в Бъркли. „Това не са играчки. Увеличаването на техните възможности, преди да разберем как да ги направим безопасни, е крайно безразсъдно.

Той добави: „Има повече регулации за магазините за сандвичи, отколкото за компаниите с изкуствен интелект.“

Документът призовава правителствата да приемат набор от политики, включително:

Правителствата отделят една трета от финансирането си за изследвания и развитие на ИИ, а компаниите – една трета от своите ресурси за научноизследователска и развойна дейност за ИИ за безопасно и етично използване на системи.

Предоставяне на достъп на независими одитори до лаборатории за ИИ.

Създаване на лицензионна система за изграждане на авангардни модели.

Компаниите за изкуствен интелект трябва да приемат специфични мерки за безопасност, ако в техните модели бъдат открити опасни способности.

Налагане на отговорност на технологичните компании за предвидими и предотвратими вреди от техните AI системи.

Други съавтори на документа включват Джефри Хинтън и Йошуа Бенгио, двама от тримата „кръстници на AI“ , които спечелиха наградата ACM Turing – еквивалентът на Нобеловата награда за компютърни науки – през 2018 г. за работата си върху AI.

И двамата са сред 100-те гости, поканени да присъстват на срещата. Хинтън подаде оставка от Google тази година, за да отправи предупреждение за това, което той нарече „екзистенциален риск“, породен от цифровия интелект, докато Бенгио, професор по компютърни науки в университета в Монреал, се присъедини към него и хиляди други експерти в подписването на писмо през март призовава за мораториум върху гигантските експерименти с ИИ.

Други съавтори на предложенията включват авторът на бестселъра на Sapiens, Ювал Ноа Харари, Даниел Канеман, Нобелов лауреат по икономика, и Шийла Макилрайт, професор по изкуствен интелект в Университета на Торонто, както и награден китайски компютърен учен Анди Яо.

Авторите преупреждават

Според тя,  небрежно разработените AI системи заплашват да „увеличат социалната несправедливост, да подкопаят нашите професии, да подкопаят социалната стабилност, да позволят широкомащабни престъпни или терористични дейности и да отслабят споделеното ни разбиране за реалността, която е в основата на обществото“.

Те предупредиха, че настоящите AI системи вече показват признаци на тревожни способности, които сочат пътя към появата на автономни системи, които могат да планират, преследват цели и „действат в света“. Моделът GPT-4 AI, който захранва инструмента ChatGPT , който е разработен от американската фирма OpenAI, е в състояние да проектира и изпълнява химически експерименти, да сърфира в интернет и да използва софтуерни инструменти, включително други модели AI, казаха експертите.

„Ако изградим високо напреднал автономен AI, рискуваме да създадем системи, които автономно преследват нежелани цели“, добавяйки, че „може да не сме в състояние да ги държим под контрол“.

Други политически препоръки в документа включват: задължително докладване на инциденти, при които моделите показват тревожно поведение; въвеждане на мерки за спиране на възпроизвеждането на опасни модели; и предоставяне на регулаторите на властта да спират разработването на AI модели, показващи опасно поведение.

Срещата на върха по безопасността следващата седмица ще се съсредоточи върху екзистенциалните заплахи, породени от ИИ, като подпомагане на разработването на нови биологични оръжия и избягване на човешки контрол. Правителството на Обединеното кралство работи с други участници по изявление, което се очаква да подчертае мащаба на заплахата от граничен ИИ – терминът за усъвършенствани системи. Въпреки това, въпреки че срещата на върха ще очертае рисковете от ИИ и мерките за борба със заплахата, не се очаква официално да създаде глобален регулаторен орган.

Някои експерти по ИИ твърдят, че страховете за екзистенциалната заплаха за хората са преувеличени. Другият съ-носител на наградата Тюринг за 2018 г. заедно с Бенджио и Хинтън, Ян Лекун, сега главен учен по изкуствен интелект в Meta на Марк Зукърбърг и който също присъства на срещата, каза пред Financial Times, че идеята, че изкуственият интелект може да унищожи хората, е „абсурдна“.

Въпреки това авторите на политическия документ твърдят, че ако сега се появят усъвършенствани автономни AI системи, светът няма да знае как да ги направи безопасни или да провежда тестове за безопасност върху тях. „Дори и да го направихме, в повечето страни липсват институции, които да предотвратят злоупотреби и да поддържат безопасни практики“, добавиха те.



Последвайте ни в Twitter👇