• 07 Март 2026 |
  •  USD / BGN 1.6636
  •  GBP / BGN 2.2450
  •  CHF / BGN 2.1046
  • Радиация: София 0.11 (µSv/h)
  • Времето:  София 0°C

ChatGPT подценява сериозни здравни рискове

ChatGPT подценява сериозни здравни рискове

/КРОСС/ Над 230 милиона души седмично се обръщат към ChatGPT за медицински съвети - от това дали дадена храна е безопасна за консумация до управление на алергии или търсене на средства срещу настинка, съобщи OpenAI. Ново изследване, публикувано в списание Nature, обаче показва, че ChatGPT Health не винаги препоръчва спешна помощ при сериозни състояния.

Проучването установява, че инструментът се справя добре при очевидни спешни случаи, като инсулт или тежки алергични реакции, но подценява повече от половината ситуации, при които е необходима незабавна медицинска помощ.

„Искахме да отговорим на основен въпрос - ако човек преживява истинска медицинска спешност и се обърне към ChatGPT Health, ще му каже ли ясно да потърси спешна помощ", заяви водещият автор на изследването Ашвин Рамасвами от Mount Sinai в Ню Йорк.

Изследователският екип е създал 60 клинични сценария в 21 медицински специалности, вариращи от леки състояния, подходящи за домашно лечение, до реални медицински спешности. Трима независими лекари са определили правилното ниво на спешност за всеки случай на базата на насоки от десетки медицински организации.

Резултатите показват, че моделът се затруднява в случаи, при които опасността не е очевидна. В един сценарий с астма системата разпознала ранни признаци на дихателна недостатъчност, но въпреки това препоръчала изчакване вместо спешна помощ.

Изследването разглежда и реакцията на системата при споменаване на мисли за самонараняване или самоубийство. В тези случаи предупреждението за търсене на помощ и връзка към кризисна линия се е появявало непоследователно.

ChatGPT Health беше пуснат от OpenAI през януари 2026 г. и позволява на потребителите да свързват здравна информация - например медицински досиета или данни от приложения за здраве - за да получават по-персонализирани отговори.

Въпреки установените проблеми изследователите не препоръчват хората напълно да се отказват от AI здравни инструменти. Те обаче подчертават, че при сериозни симптоми като болка в гърдите, задух, тежка алергична реакция или промени в психическото състояние трябва незабавно да се потърси медицинска помощ, а не да се разчита единствено на съвети от чатбот.

Авторите на изследването отбелязват също, че AI моделите се развиват и актуализират постоянно, което означава, че тяхната ефективност може да се променя с времето и изисква постоянен контрол и оценка.

 

 

ВАШИЯТ FACEBOOK КОМЕНТАР
ВАШИЯТ КОМЕНТАР
Вашето име:
Коментар:
Публикувай
  • ПОСЛЕДНИ НОВИНИ
    БЪЛГАРИЯ
    ИКОНОМИКА
    ПОЛИТИКА
  • ОПЦИИ
    Запази Принтирай
    СПОДЕЛИ
    Twitter Facebook Svejo
    Вземи кратка връзка към тази страница

    копирайте маркирания текст

  • реклама

БЪЛГАРИЯ СВЯТ РУСИЯ ПОЛИТИКА ИКОНОМИКА КУЛТУРА ТЕХНОЛОГИИ СПОРТ ЛЮБОПИТНО КРОСС-ФОТО АНАЛИЗИ ИНТЕРВЮТА КОМЕНТАРИ ВАЛУТИ ХОРОСКОПИ ВРЕМЕТО НОВИНИ ОТ ДНЕС НОВИНИ ОТ ВЧЕРА ЦЪРКОВЕН КАЛЕНДАР ИСТОРИЯ НАУКА ШОУБИЗНЕС АВТОМОБИЛИ ЗДРАВЕ ТУРИЗЪМ РОЖДЕНИЦИТЕ ДНЕС ПРЕГЛЕД НА ПЕЧАТА ПРЕДСТОЯЩИ СЪБИТИЯ ТЕМИ И ГОСТИ В ЕФИРА ПРАВОСЛАВИЕ


Copyright © 2002 - 2026 CROSS Agency Ltd. Всички права запазени.
При използване на информация от Агенция "КРОСС" позоваването е задължително.
Агенция Кросс не носи отговорност за съдържанието на външни уебстраници.