Наскоро получих уведомление в моята електронна поща за създаването на нова организация, в сферата на развиващите се технологии – Център за управление на изкуствения интелект (Centre for Governance of AI).
Мисията на този институт е да създаде глобална общност от експерти, които да помогнат на човечеството към преминаване към свят с развит изкуствен интелект. Разбира се, всичко това е съобразено с пространна програма, която е достъпна от уебсайта на организацията.
Преди всичко е важно да се уточнят още веднъж многото предимства от усвояването на една такава технология – ИИ може да има ключова роля в разрешаването на глобални човешки конфликти, включително военни и политически проблеми, климатични промени и др. На базата на това разбиране напреднал ИИ би могъл също така да подобрим драстично нашето здраве(опазване), щастие, богатство, наука, оцеляване, както и някои въпроси на човешкото себепознание.
Оценка на рисковете
Въпреки положителните идеали, организацията е съставена най-вече от мислещи хора, затова при всяка една оценка се прилагат и рисковете. В програмата на Центъра, те са заложени като катастрофални и произлизащи от евентуалната употреба на една такава технология (ако е уместно да наречем ИИ с този термин). Споменавам четири от най-често споменаваните проблемни области:
- Тоталитаризъм – Обществото би могло да използва възможните технологични придобивки, благодарение на Изкуствения интелект, с користна цел. Говорим за възможни отлични детектори на лъжата, всевъзможни сензори (извличащи и обработващи данни в реално време), социална манипулация, автономни оръжия, както и проследяването на популацията чрез различни методи. Ако всичко това се инкорпорира и е подвластно на определени групи от хора, владеещи и движещи този ИИ, това би довело до огромни неравенства, контрол, както и консолидация на власт, граничеща с тоталитаризъм.
- Опустошителна ядрена война – Един от известните апокалиптични сценарии, които често се споменават, когато се говори за напреднал ИИ е широкомащабната и опустошителна ядрена война. Спекулира се, че това би било възможно, ако ИИ е овластен да направи собствена преценка против Велика сила, отсъждайки първи или ответен удар.
- Несъответствие с човешките ценности – Такъв проблем би бил възможен, ако не се предвиди поведението и цялостното проектиране на Изкуствения интелект още от етапите на планиране. Проблемът не е за подценяване, защото може да доведе до унищожаването на човечеството като вид, ако имаме враждебен ИИ.
- Ерозия на стойност – Систематичен риск на стойността на продукти, услуги и блага, би довел до премахването на „човешката“ конкуренция.
Трансформативната сила на ИИ
Когато говорим за радикални технологични решения е редно да дефинираме полето на изразяваната идея. В контекста на целите на Центъра, тяхната принципна позиция е, че трансформативната сила на напреднал Изкуствен интелект би следвало да бъде иновация, която да доведе до радикална промяна.
Промяната на света под въздействието на овластен Изкуствен интелект би довела до цялостна промяна на Световния ред — промяната при властовите структури, създаването на “раса на ИИ”, както и всички следствия от това.
Центърът работи по специфичен план за управлениа на Изкуствения интелект и свързаните разработки. Тяхната теория за въздействие е обоснована върху два основни принципа — решенията по отношение на работата и разработката на такъв вид технологии, както и тяхното внедряване и използване от институции и организации.
Това е дълбоко разгледано в няколко перспективи:
- Перспективата за Суперинтелект — Отнася се до презумпцията, че напреднал Изкуствен интелект би могъл да бъде действащ агент в свят, в който той би доминирал със своите интелектуални способности над хората.
- Екология и Технология в общ план — Подобни агенти биха могли да решат трайни проблеми, които човечеството е неспособно да координира.
- Управление на риска — Водещ проблем при проектирането и цялостното създаване на интелигентни агенти се свързва с проблема за неправилна употреба.
Приканвам да разгледате подробно документите и възможностите, които се разглеждат в сайта на Центъра.