З точністю 85%: ШІ навчився копіювати людську особистість
Усього дві години розмови зі штучним інтелектом достатньо, щоби він створив точну копію особистості людини. До такого висновку дійшли дослідники зі Stanford University та Google, пише Live Sience.
ШІ може створити цифрову копію особистості
У межах експерименту вчені створили симуляційних агентів — ШІ-моделі, які імітують поведінку людини. Для цього вони провели двогодинні інтерв’ю з більше ніж тисячею респондентів, збираючи інформацію про їхнє життя, цінності та погляди на суспільні питання. Ці дані використовувались для навчання генеративної моделі штучного інтелекту.
Щоб оцінити точність копій, учасники проходили серію особистісних тестів, соціальних опитувань і логічних ігор. Через два тижні ці ж тести провели для ШІ-моделей, порівнюючи результати. Штучний інтелект показав 85% збігів з відповідями реальних людей.
ШІ-агенти добре справляються із завданнями, пов’язаними з особистісними тестами чи соціальними опитуваннями. Однак точність знижується в сценаріях, що включають соціальну динаміку або складні економічні рішення, як-от інтерактивні ігри.
Автори дослідження впевнені, що технологія може відкрити нові горизонти для вивчення людської поведінки. Але її застосування потребує суворого контролю, щоб уникнути можливих зловживань.
Можливості та ризики створення ШІ-копій особистості
У дослідженні зазначено, що такі моделі можуть бути корисними для різних наукових цілей. Наприклад, вони можуть допомогти оцінити ефективність державних програм, зрозуміти реакцію суспільства на нові продукти чи проаналізувати, як люди реагують на глобальні події, які складно або етично неприйнятно вивчати на реальних прикладах.
— Загальне моделювання людських ставлень і поведінки — це можливість створити лабораторію для тестування широкого спектра втручань і теорій, — йдеться у дослідженні.
ШІ також може допомогти у створенні теорій причинно-наслідкових зв’язків або у вивченні впливу соціальних структур на людей.
Проте дослідники визнають і ризики. Штучний інтелект може бути використаний у злочинних цілях: для обману, маніпуляцій чи зловживань, зокрема в онлайн-середовищі. Адже технології глибоких фейків вже не раз доводили свою небезпеку.
Хочете отримувати цікаві новини найпершими? Підписуйтесь на наш Telegram
Нещодавно Life. Факти ICTV розповідали, які ризики для користувачів несе пошук через ChatGPT.
Джерело ФАКТИ. ICTV
2025-01-07 16:51:00