Ръководителят на отдела „Доверие и безопасност“ на OpenAI обяви в края на отминаващата седмица, че се оттегля от поста си.
Дейв Уилнър, който заемаше този отговорен пост от февруари 2022 г., заяви в публикация в LinkedIn, че напуска OpenAI и ще работи като консултант, за да прекарва повече време със семейството си.
Напускането на Уилнър идва в ключов момент за OpenAI. Откакто чатботът с изкуствен интелект ChatGPT придоби огромна популярност в края на миналата година, OpenAI се сблъсква с нарастващ контрол от страна на законодателите, регулаторните органи и обществеността, по отношение на безопасността на нейните продукти и потенциалните им последици за обществото.
Главният изпълнителен директор на OpenAI Сам Олтман призова за регулиране на ИИ по време на изслушване в Сената през март. Той заяви пред законодателите, че потенциалът на ИИ да се използва за манипулиране на гласоподаватели и да се насочва дезинформация, са сред сферите, които будят в него най-голяма загриженост, особено, защото тези модели стават все по-добри.
В пост от миналата седмица Уилнър, чиято биография включва работа и за „Фейсбук“ и за Airbnb, отбеляза, че OpenAI преминава през много интензивна фаза на развитие и че неговата роля е нараснала драматично, откакто той се е присъединил за първи път.
В изявление на OpenAI за напускането на Уилнър, се казва, че работата му е била основополагаща за прилагането на нашия ангажимент за безопасно и отговорно използване на технологията ни и е проправила пътя за бъдещ напредък в тази област Главният технологичен директор на OpenAI Мира Мурати ще стане временен ръководител на екипа по доверие и безопасност, а Уилнър ще съветва екипа до края на тази година, споделиха от компанията.
„Ние търсим ръководител с технически умения, който да напредва в нашата мисия, като се фокусираме върху проектирането, разработването и внедряването на системи, които осигуряват безопасното използване и прогнозируемото развитие на нашата технология“, се посочва в изявлението на компанията.
Напускането на Уилнър идва в момент, когато OpenAI продължава да работи с регулаторните органи в САЩ и на други места, за да се създадат предпазни регулации около бързо развиващата се технология на изкуствения интелект. OpenAI беше сред седемте водещи компании в областта на изкуствения интелект, които в петък поеха доброволни ангажименти, договорени с Белият дом, за да направят системите и продуктите с изкуствен интелект по-безопасни и по-надеждни. Като част от ангажимента, компаниите се съгласиха да подложат новите ИИ системи на външни тестове, преди да бъдат пуснати публично и ясно да обозначават съдържанието, генерирано от изкуствен интелект, съобщи Белият дом.
Междувременно стана известно, че водещи компании като Microsoft, Google и други водещи компании, разработващи изкуствен интелект се ангажираха да подложат новите си системи за ИИ на външни тестове и ясно да обозначават съдържанието като генерирано от изкуствен интелект, обявиха от Белия дом.
Това са част от поредица доброволни ангажименти, договорени от Белия дом и седем водещи компании за изкуствен интелект, сред които са и Amazon, Meta, OpenAI, Anthropic и Inflection, които имат за цел да направят и системите, и продуктите на изкуствения интелект по-безопасни и надеждни, докато Конгресът и Белият дом разработват по-всеобхватни правила за управление на бързо развиващата се индустрия. В петък, 21 юли, президентът Джо Байдън се срещна с топ мениджъри от всичките седем компании в Белия дом.
Американският президент определи ангажиментите на компаниите като реални и конкретни и добави, че те ще им помогнат да си изпълнят основните задължения към американците да разработват безопасни, сигурни и надеждни технологии, които са от полза за обществото и подкрепят ценностите на цялата нация.
„Ще станем свидетели на повече технологични промени през следващите 10 години или дори през следващите няколко години, отколкото сме виждали през последните 50 години. Това е поразително откритие“, коментира Байдън.
Представители на Белия дом признават, че част от компаниите вече са изпълнили някои от ангажиментите, но твърдят, че като цяло те ще повишат стандартите за безопасност, сигурност и доверие в изкуствения интелект и ще послужат като мост към регулиране.
„Това е първа стъпка, това е мост към мястото, където трябва да отидем“, заяви в интервю Брус Рийд – заместник-ръководител на администрацията на Белия дом, който отговаря за политиката за изкуствен интелект.
По думите му тя ще помогне на индустрията и правителството да развият капацитет, за да се уверят, че ИИ е безопасен и сигурен.
„И ние настоявахме да се движим толкова бързо, защото тази технология се движи все по-далеч и по-бързо от всичко, което сме виждали досега“, добави Рийд.
Въпреки че повечето от компаниите вече провеждат вътрешни учения при тревога, за първи път, всички те се ангажират да позволят на външни експерти да тестват системите им, преди да бъдат пуснати за обществено ползване. Така наречените учения по тревога имат за цел да се симулира какво може да се обърка с дадена технология – като кибератака или възможността тя да бъде използвана от злонамерени участници. Това позволява на компаниите да идентифицират проактивно недостатъците и да предотвратят негативни резултати.
Рийд заяви, че външният тестови екип ще помогне да се проправи път за правителствения надзор и регулиране, като потенциално ще постави началото на външно тестване, което да се извършва от правителство или лицензиращ орган.
Ангажиментите биха могли да доведат и до широко разпространено използване на своеобразни „водни знаци“ върху аудио и визуално съдържание, генерирано от изкуствен интелект, с цел борба с измамите и дезинформацията.
Компаниите се ангажираха също така да инвестират в киберсигурността и в „предпазни мерки срещу заплахи от вътрешни лица“, по-специално – за защита на модела на ИИ, които по същество представляват база данни, на която разчитат ИИ системите; създаване на надежден механизъм за докладване от трети страни за уязвимостите на системите; приоритизиране на изследванията за обществените рискове от ИИ; разработване и внедряване на системи за ИИ, които да помогнат за справяне с рисковете за обществото, споделиха от Белия дом.
Джейк Тапър от CNN попита заместник-председателя и президент на Microsoft Брад Смит какви са му притесненията за новата технология.
Той призна, че основно се притеснява, че злонамерени субекти могат да я използват, за да провалят изборите, че ще я използват, за да се опитат да проникнат в компютърните мрежи и така да подкопаят сигурността им.
Според Смит най-добрият начин за решаване на тези проблеми е да се съсредоточим върху тях, да ги разберем, да обединим хората и да ги решим. И интересното при изкуствения интелект, според него е, че когато заедно с колегите всички са решени да го направят, те могат да използват ИИ, за да се защитят срещу тези проблеми много по-ефективно, отколкото са можели до този момент.
Смит добави и че не желае изкуственият интелект да подкопава способността на никого да си изкарва прехраната чрез творчество.
Всички ангажименти на водещите компании са доброволни и служителите на Белия дом признаха, че няма механизъм за прилагане, който да гарантира спазването им, като при някои от поетите ангажименти дори липсва конкретност.
Common Sense Media – организация за безопасност на децата в интернет, похвали Белия дом за предприетите стъпки за създаване на предпазни ограничения за ИИ, но предупреди, че историята показва, че много технологични компании в действителност не изпълняват доброволно обещанията си да действат отговорно и да спазват строгите правила.
„Ако сме научили нещо от последното десетилетие и изцяло лошото управление на социалните медии, то е, че голяма част от компаниите предлагат много услуги на думи“, сподели Джеймс Стейър, главен изпълнителен директор на Common Sense Media.
„И след това те дават приоритет на печалбите си до такава степен, че не искат да носят отговорност за това как техните продукти влияят на американския народ, особено на децата и семействата“, добави Стейър.
Неспособността на федералното правителство да регулира компаниите за социални медии и съпротивата им срещу регулациите, се очертава като проблем за служителите на Белия дом, които през последните месеци са започнали да разработват потенциални действия за справяне с тези два проблема.
„Основното нещо, което подчертахме по време на дискусиите с компаниите беше, че трябва да направим регулацията възможно най-стабилна“, призна Рийд Рейд. „Технологичната индустрия допусна грешка, като отблъсна всякакъв вид надзор, законодателство и регулиране преди десетилетие и мисля, че ИИ напредва още по-бързо сега и е важно този мост към регулацията да бъде стабилен“, призна Рейд.
Ангажиментите бяха изготвени по време на продължила няколко месеца дискусия между компаниите за ИИ и Белия дом, които започнаха през май, когато група ръководители на компании за изкуствен интелект се срещнаха с Байдън, с вицепрезидента Камала Харис и с други висши служители от президентската администрация. Белият дом също така потърси мнението на експерти по безопасност и етика, които не са свързани с ИИ индустрията.
Служителите на Белия дом работят за преминаване отвъд доброволните ангажименти, като подготвят серия от регулации, първите от които се очаква да бъдат представени по-късно това лято. Длъжностните лица работят също така в тясно сътрудничество със законодателите от Капитолийския хълм, за да разработят по-цялостно законодателство за регулиране на изкуствения интелект.
„Това е сериозна отговорност. Трябва да се справим добре. Има и огромен, огромен потенциал за развитие“, подчерта Байдън.
Междувременно представители на Белия дом твърдят, че компаниите „незабавно“ ще започнат да изпълняват доброволно поетите ангажименти и се надяват, че в бъдеще и други компании ще се присъединят към тях.
„Очакваме, че други компании ще осъзнаят, че те също имат задължение да спазват стандартите за безопасност, сигурност и доверие. И те могат да избират, а ние ще приветстваме техния избор – да се присъединят към нас“- заяви служител на Белия дом.