• 07 Фев 2023 |
  •  USD / BGN 1.8150
  •  GBP / BGN 2.1907
  •  CHF / BGN 1.9629
  • Радиация: София 0.11 (µSv/h)
  • Времето:  София -6°C

Може ли изкуственият интелект да "мисли" неутрално?

Може ли изкуственият интелект да "мисли" неутрално?

/КРОСС/ Лицевото разпознаване чрез изкуствен интелект (ИИ) работи добре при бели мъже, но не и при тъмнонокожи жени. Това е един от класическите проблеми на тази нова област, които напоследък станаха известни. В участието си за "Тед толк" тъмнокожата Джой Буламвини демонстрира резултатите от собствения си експеримент. Софтуерът за лицево разпознаване просто не може да я регистрира правилно. И едва след като си слага бяла маска, очертаваща само основните ѝ лицеви характеристики - уста, нос, очи - технологията я разпознава.

Буламвини прави обзор на различен софтуер за лицево разпознаване, включително на АйБиЕм и Майкрософт. Те разпознават всякакви лица, но допускат значително повече грешки при определяне на пола на жените и хората с тъмна кожа. Ако при белите мъже грешките са около 1 процент, то при тъмнокожите жени те стигат до 35 процента. Проблемът не е в технологията, а в това кой я разработва и в методите, по които тя е обучавана. Броят на белите мъже, участващи в създаването на изкуствения интелект, е доста над средния. От друга страна, делът на жените в IТ сектора през 2021 г. е бил едва 18 процента.


Разработчиците на изкуствен интелект често просто не обръщат достатъчно внимание на групите, които не са достатъчно представени в техните екипи. Така характеристики, които са много важни за разпознаването, например на женско или тъмнокожо лице, могат да останат пренебрегнати. Затова и не е изненадващо, че настоящите софтуери за лицево разпознаване се справят най-добре с белите мъже. Ксения Кеплингер, която ръководи изследователска група в Института за интелигентни системи "Макс Планк", коментира, че това не се прави съзнателно, например за да бъдат изключени жените или малцинствата.

Тя допуска, че разработчиците просто може да не са взели предвид всички групи хора. Пропуски и в базите данни Кеплингер отличава и друга важна причина за предразсъдъците на изкуствения интелект - конкретните бази данни, с които той е бил захранван. При обучението за разпознаване, на системата се показват хиляди, десетки хиляди или много повече изображения на хора. Именно върху тази основа ИИ научава кои индивидуални черти съставят човешкото лице. Подобни бази данни могат да се закупят.

Проблемът е, че те обикновено не са особено разнообразни. Белите мъже често са непропорционално високо представени в тях. Затова е и обяснимо, че ИИ е научен да разпознава най-добре техните лица. Обучението с исторически данни е проблематично Ако даден изкуствен интелект е бил обучаван с историографски данни, той е възприел и пристрастията, които те са отразявали.

Така например алгоритъм, който трябва да реши кои кандидатури за работа да подбере, ще представи отговорите си въз основа на данни за успешни служители на компанията от миналото. Същевременно, назад във времето, в почти всички сфери е имало ясно изразено предпочитание към мъже. И вероятно за изкуствения интелект те биха представлявали по-добри кандидати и днес.

ВАШИЯТ FACEBOOK КОМЕНТАР
ВАШИЯТ КОМЕНТАР
Вашето име:
Коментар:
Публикувай
  • ПОСЛЕДНИ НОВИНИ
    БЪЛГАРИЯ
    ИКОНОМИКА
    ПОЛИТИКА
  • ОПЦИИ
    Запази Принтирай
    СПОДЕЛИ
    Twitter Facebook Svejo
    Вземи кратка връзка към тази страница

    копирайте маркирания текст

  • реклама

БЪЛГАРИЯ СВЯТ РУСИЯ ПОЛИТИКА ИКОНОМИКА КУЛТУРА ТЕХНОЛОГИИ СПОРТ ЛЮБОПИТНО КРОСС-ФОТО АНАЛИЗИ ИНТЕРВЮТА КОМЕНТАРИ ВАЛУТИ ХОРОСКОПИ ВРЕМЕТО НОВИНИ ОТ ДНЕС НОВИНИ ОТ ВЧЕРА ЦЪРКОВЕН КАЛЕНДАР ИСТОРИЯ НАУКА ШОУБИЗНЕС АВТОМОБИЛИ ЗДРАВЕ ТУРИЗЪМ РОЖДЕНИЦИТЕ ДНЕС ПРЕГЛЕД НА ПЕЧАТА ПРЕДСТОЯЩИ СЪБИТИЯ ТЕМИ И ГОСТИ В ЕФИРА ПРАВОСЛАВИЕ


Copyright © 2002 - 2023 CROSS Agency Ltd. Всички права запазени.
При използване на информация от Агенция "КРОСС" позоваването е задължително.
Агенция Кросс не носи отговорност за съдържанието на външни уебстраници.