Україна і світ

ШІ, що імітує людське спілкування, може бути небезпечним – ВООЗ

ВООЗ дослідила алгоритм штучного інтелекту LLM, який використовує методи глибокого навчання та великі набори даних для розуміння, узагальнення та створення нового контенту.

Організація стурбована тим, що такі відомі платформи, як ChatGPT, Bard, Bert тощо імітують людське спілкування, але до них не застосовуються заходи обережності, що зазвичай застосовується стосовно всіх нових технологій.  Це досить ризиковано, коли йдеться про використання цих платформ у сфері охорони громадського здоров’я.

 – Швидке впровадження неперевірених систем може призвести до помилок медпрацівників, завдати шкоди пацієнтам, підірвати довіру до ШІ-технологій у всьому світі, — зазначають у ВООЗ.

Рекомендації ШІ можуть здаватися авторитетними та правдоподібними, але бути абсолютно неправильними або містити серйозні помилки. Через те, що в даних, які використовуються для навчання ШІ, не вилучені упередження та оманлива або неточна інформація.

І, звісно, ШІ не обходитиме конфіденційні дані (зокрема про стан здоров’я), що може зашкодити пацієнту.

Не можна виключати і те, що через інструменти ШІ можуть свідомо поширювати ​​дезінформацію, яку буде досить важко відрізнити від надійного медичного контенту, настільки вона здаватиметься переконливою.

ВООЗ запевняє, що з ентузіазмом ставиться до нових технологій, зокрема LLM. Але пропонує надати громадськості і фахівцям чіткі докази їхньої користі і безпечності перед тим, як широко впроваджувати.

Джерело: ВООЗ

Якщо ви побачили помилку в тексті, будь ласка, виділіть фрагмент тексту та натисніть Cntrl + Entr.

Джерело ФАКТИ. ICTV
2023-05-16 18:28:36