представники Google розмірковують про те, чи зможе штучний інтелект досягти свідомості
Інженер-програміст з Google заявив, що штучний інтелект демонструє людські якості, зокрема, упередженість, і це далеко не першочергова проблема в галузі
Згідно з даними Bloomberg за 14 червня 2022 року, інженера-програміста, що представляє Google , усунули з посади за те, що він дав інтерв'ю, в якому описав свою думку щодо штучного інтелекту. Блейк Лемуан заявив, що Ші демонструє людські якості, зокрема упередженість. Дослідження інженера-програміста породили дебати, але виявилося, що це далеко не першочергова проблема в даній галузі.
Інженер висловив зацікавленість тим, що чат-бот, розроблений компанією Google, заснований на ШІ, раптом висловив справжні емоції. Чат-бот підняв цікаві питання, пов'язані з життєвими етичними проблемами. Компанія відсторонила інженера через оприлюднення конфіденційної інформації, підкріпивши цю подію уточненням, що побоювання Блейка Лемуана безпідставні.
Дослідники вважають за краще сконцентруватися на таких проблемах, як можливості заподіяння шкоди штучним інтелектом. Професор комп'ютерної лінгвістики Вашингтонського університету, висловилася на підтримку позиції Лемуана, вона зазначила, що це явище може посприяти тому, щоб розробники ШІ, і компанії, які несуть потенційну відповідальність за дані розробки, не повинні цілком і повністю відповідати за кожну дію штучного інтелекту.
Минулої суботи 11 червня 2022 року американські ЗМІ опублікували інтерв'ю з інженером-програмістом Google. Раніше він особисто провів бесіду з програмою LaMDA (Language Models for Dialogue Applications). Остання являє собою так званий фреймворк, який використовується командою Google в програмуванні спеціалізованих чат-ботів. Згодом штучний інтелект навчили трильйона слів, взятих з просторів Інтернету, щоб максимально реалістично імітувати бесіду. У процесі діалогу з чат-ботом Лемуан зауважив, що ШІ є розумною істотою, у якого повинні бути свої права.