
Доскоро твърденията за признаци на съзнание в изкуствения интелект бяха възприемани с подигравки и отхвърляни от експертите във високотехнологичната индустрия. Но сега изследователи от AI стартъпа Anthropic и Google DeepMind открито обсъждат възможността за съзнание в изкуствения интелект, което отразява бързия напредък в технологиите и дълбоката промяна в научната парадигма.
Anthropic, разработчикът на модела Claude AI, обяви нова изследователска инициатива, посветена на изучаването на възможността за съзнание в изкуствения интелект. Компанията планира да проучи дали моделите с изкуствен интелект в бъдеще биха могли да изпитват субективни чувства, предпочитания за форми или страдание.
Програмата е в рязък контраст със събитията от 2022 г., когато старши софтуерният инженер на Google Блейк Лемойн беше уволнен, след като направи твърдения за съзнание на чатбота с изкуствен интелект LaMDA, отбелязва Business Insider. Лемойн твърди, че изкуственият интелект се страхува от това да бъде откъснат от света и се идентифицира като човек. В отговор Google нарече твърденията „напълно безпочвени” и дискусията за съзнанието в общността на изкуствения интелект бързо затихна.
За разлика от Лемойн, Anthropic не твърди, че моделът Claude AI е съзнателен. Компанията възнамерява да разбере дали подобно явление може да възникне в бъдеще. Според Кайл Фиш, експерт по съвпадението на изкуствения интелект и човешките ценности, вече е неоправдано да се приема, че отговорът на въпроса дали AI моделите са съзнателни винаги ще бъде отрицателен.
Според изследователите на Anthropic, вероятността Claude AI 3.7 да има съзнание е между 0,15% и 15%. Компанията проучва дали Claude 3.7 показва предпочитание или отвращение към определени задачи, а също така тества механизми за отказ, които биха позволили на AI модела да избягва нежелани задачи.
Главният изпълнителен директор на Anthropic, Дарио Амодей, предложи по-рано идеята за въвеждане на бутон „Напускам тази работа” за бъдещи системи с изкуствен интелект. Подобна мярка е необходима не заради разпознаването на съзнанието, а за идентифициране на модели на неуспех, които могат да сигнализират за дискомфорт в AI.
Междувременно, водещият изследовател Мъри Шанахан от Google DeepMind предложи преосмисляне на самата концепция за съзнанието, що се отнася до изкуствения интелект. В подкаст, публикуван в четвъртък, той каза, че обичайният речник, използван за описание на съзнанието, може да се нуждае от промяна, за да обясни поведението на системите с изкуствен интелект.
Според Шанахан, макар да не сме в споделен свят с изкуствения интелект, както можем да бъдем с куче или октопод, това не означава, че липсват напълно вътрешни процеси на съзнание в AI. Google дори публикува обява за работа за изследовател по проект „пост-AGI”, чиято задача ще бъде да изучава машинното съзнание.
Не всички експерти обаче са уверени в реалната поява на съзнание в изкуствения интелект. Джаред Каплан, главен учен в Anthropic, заяви пред Ню Йорк Таймс, че съвременните модели на изкуствен интелект могат лесно да се научат да симулират съзнание, дори и да нямат такова. Той подчерта, че тестването на съзнанието на AI моделите е изключително трудно именно, заради високата им способност за имитация.
Критични оценки се чуват и от когнитивните учени. Гари Маркъс коментира пред Business Insider, че фокусът върху съзнанието е по-скоро за маркетингови, отколкото за научни цели. Той саркастично сравнява идеята за предоставяне на права на AI моделите с възможността за признаване на правата на калкулатори и електронни таблици, които, за разлика от изкуствения интелект, не измислят информация.
1 коментар
LOL