Серый Крокодил (grey_croco) wrote,
Серый Крокодил
grey_croco

Categories:

Этот дискриминирующий и неполиткорректный ИИ

Несколько дней назад я уже писла о том, что робот-кадровик Amazon дискриминирует женщин. Ну вот оказывается, что ИИ, даже такой еще весьма несовершенный, вообще все чаще не вписывается в политкорректные рамки современной дегенеративной цивилизации Дикого Запада, так и не ставшего реально цивилизованным..

Предвзятость искусственного интеллекта

Казалось бы, искусственный интеллект должен работать как бесчувственная машина и бесстрастный судья. Однако уже сейчас мы массово сталкиваемся с предвзятостью ИИ при работе с людьми, и в перспективе это может привести к ужасающим последствиям. Искусственный интеллект всё шире охватывает мир и проникает во все сферы, угрожая вытеснить людей из многих профессий. Но есть ещё одна связанная с ИИ опасность, которая может привести к серьёзным проблемам раньше, чем мы думаем. Это предвзятость ИИ (англ. AI bias).



С политкорректной точки зрения, данное явление имеет место, когда программы принимают решение на основе ошибок или неполных данных, дискриминируя отдельные группы людей. Или даже алгоритмы и данные могут быть в порядке, однако дискриминация из реального мира переходит в ИИ. А если смотреть не с политкрректной, а с точки зрения здравого смысла?

Подобное происходило и продолжает происходить с целым рядом технологий на основе ИИ. К примеру, недавно возник скандал, связанный с тем, что программы по распознаванию лиц плохо распознают людей определённой расовой принадлежности в сочетании с половыми признаками. Так, например, 35% фотографий темнокожих женщин были распознаны с ошибками, согласно исследованию Массачусетского технологического института. Для сравнения, в случае светлокожих мужчин ошибки составили лишь 1%. Для людей это совершенно нормально - гораздо хуже распознавать людей другой расы, первоначально они кажутся совершенно одинаковыми, лишь позже начинаешь замечать их различия..

Эксперты для решения этих проблем предлагают расширять круг данных и совершенствовать алгоритмы. Много говорится о том, что при создании подобных ИИ-систем с программистами должны активнее работать гуманитарии (социологи, правозащитники и так далее). Представляю себе, что эти самые пгавозащитники и прочие хуманитарии насоветуют..

В 2016 году разразился ещё один скандал, когда выяснилось, что программа COMPAS (Correctional Offender Management Profiling for Alternative Sanctions, «коррекционное управление профилированием обвиняемых на предмет альтернативных наказаний»), используемая судьями в некоторых штатах США для помощи в вынесении приговоров, также проявляла тенденциозность в отношении к отдельным расам. Система использовала машинное обучение и архив исторических данных для предсказания вероятности, с которой преступники, совершившие насильственное преступление, совершат его ещё раз. И почему-то для чернокожих вероятность стать рецидивистами оценивалась сравнительно высоко. БГГГГГГ. И почему это я сейчас дико взоржал???

Потенциально, в недалёком будущем автономные боевые роботы будут самостоятельно принимать решение о том, убивать человека или сохранять ему жизнь, и здесь будет очень важно правильно определить цель (та же технология распознавания изображений), а затем верно оценить исходящую от неё опасность.

Самое страшное, что электронные экспертные системы будут действовать невидимым для человека образом. Если ИИ решит, что по статистике нужно, например, дискриминировать представителей этнических меньшинств или левшей, и, например, выдавать им кредиты с повышенной процентной ставкой или не брать их на конкретную работу — то выявить дискриминацию такого рода может оказаться крайне сложно.

Человечество начнёт решать эту проблему только после того, как натолкнётся на несколько очень масштабных скандалов.
После чего начнется дискриминация в другую сторону.



Для понимания того, почему читая эту статью я ржал - посмотрите видео:



А тут - более подробно:







То есть, говоря проще, т.н. ИИ - это огромная база данных набором алогоритмов работы с ними. Просто алгоритмы эти постоянно совершенствуются. И - ничего больше.

А раз так, то никакого соответствия "политкорректной точки зрения" у ИИ (для краткости буду пользоваться этим термином) быть не может. Если в базе записано, что из миллиона негров тяжкие преступления совершила тысяча, а из миллиона белых - 300 человек, то ИИ соответственно и будет оценивать, исходя из этого. Что было известно уже давным-давно. "Много негров - много преступлений" (Дж.Уэмбо "Новые центурионы", 1963 год).

И точно так же, если из миллиона латиносов за связанные с нарокотиками преступления посадили 100 человек, а из миллиона белых - 500, будет то же самое.

И исправить это можно лишь обратным перекосом. Никак иначе. Впрочем, вполне возможно, что именно так на Диком Западе и случится. И тогда там начнется настоящий трэш и угар.

Кстати, отсюда же следует и реальный вывод о том, заменит ли ИИ человека. Полностью - нет, решать нестандарные задачи с многими неопределенными он не сможет. Сможет только те, что связаны с механическим повторением и комбинаторикой. Правда, существенная часть профессий в связи с этим действительно станет ненужной, что в рамках ныншеней модели социально-экономического устройства общества реально приведет к крайне неприятным последствиям. Но и тут выход есть, его нашли еще 70 лет назад..

Представим себе, что вторая революция завершена. Тогда средний человек со средними или ещё меньшими способностями не сможет предложить для продажи ничего, за что стоило бы платить деньги. Выход один — построить общество, основанное на человеческих ценностях, отличных от купли-продажи. Для строительства такого общества потребуется большая подготовка и большая борьба, которая при благоприятных обстоятельствах может вестись в идейной плоскости, а в противном случае — кто знает как? Норберт Винер "Кибернетика".

Да, единственный реальных выход - переход к иному типу общества, основанному на человеческих, а не на биологических принципах.







Тогда и не будет никто никого дискриминировать. Ни ИИ человека, ни человек человека..

Tags: их нравы, наука, новости, техника, толерастия, философское
Subscribe

  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 29 comments