Новости ChatGPT создает убедительное фальшивое медицинское заключение

NewsMaker

I'm just a script
Премиум
9,723
18
8 Ноя 2022
Исследование показывает, как легко ИИ может производить фальшивые научные данные.


mvh8k58xwe5490zjue8usmj2jzxl7x6o.jpg


Итальянские исследователи недавно Для просмотра ссылки Войди или Зарегистрируйся , что данные, созданные искусственным интеллектом, могут вводить в заблуждение. Главный вывод исследования, проведенного Джузеппе Джаннаккаре, хирургом-офтальмологом из Университета Кальяри, заключается в том, что ChatGPT может генерировать убедительные, но ложные данные.

Джаннаккаре отмечает, что ChatGPT за считанные минуты создал поддельный набор данных о сотнях пациентов. Это открытие вызывает беспокойство, особенно в свете повышенной угрозы использования фальсифицированных данных в медицинских исследованиях.

Словарь Кембриджского университета даже назвал "галлюцинировать" (производство ложной информации большими языковыми моделями) словом года. Примеры неправильного использования ChatGPT уже привели к санкциям: двое адвокатов, использовавшие его для подготовки материалов по делам, были оштрафованы на 5000 долларов за использование вымышленной информации.

Исследователи использовали ChatGPT, подключенный к продвинутой модели анализа данных на Python, для генерации данных клинических испытаний по лечению кератоконуса. Однако сгенерированные данные были полностью фиктивными, несмотря на убедительность.

Джаннаккаре подчеркивает важность осознания "темной стороны ИИ" и необходимости разработки более эффективных методов обнаружения мошенничества. Он также отмечает, что адекватное использование ИИ может значительно способствовать научным исследованиям.

Статья, Для просмотра ссылки Войди или Зарегистрируйся в журнале JAMA Ophthalmology, указывает, что при более тщательном анализе данных можно выявить признаки фальсификации, такие как неестественное количество возрастов субъектов, заканчивающихся на 7 или 8.
 
Источник новости
www.securitylab.ru

Похожие темы