Може ли АИ имати Биасес?

Аутор: Laura McKinney
Датум Стварања: 5 Април 2021
Ажурирати Датум: 26 Јуни 2024
Anonim
MONATIK - Кружит (Official Video)
Видео: MONATIK - Кружит (Official Video)

Садржај


Одузети:

Последњих година АИ се све више усваја и примењује на све, од процене лепоте до процене ризика од рецидивизма. Радећи то, такође је подржао стандарде који подржавају пристрасност и дискриминацију у неколико случајева.

Напредак технологије има потенцијал за истински демократизацију приступа информацијама и могућностима. Међутим, кад се у неким случајевима користи на начине који учвршћују идеју да су у нашем друштву неки људи равноправнији од других.

Ово је оно што смо видели из следећих седам случајева у којима се вештачка интелигенција (АИ) намерно користи да би се искључиле одређене категорије или у којима она једноставно одражава пристраност коју су уградили њени људски програмери са дискриминаторним ефектом.

АИ Беаути Биас

Лепота је можда у оку гледаоца, али када тај субјективни поглед може да програмира АИ, имаћете пристраности у програму. Рацхел Тхомас извијестила је о једној таквој епизоди на натјецању љепоте са беаути.аи-а 2016. Резултати су показали да су свјетлије тенисице оцијењене привлачнијима од тамних.


Следеће године је „ФацеАпп, који користи неуронске мреже за прављење филтера за фотографије, створио„ филтер врућине “који је осветлио кожу народа и дао им више европских карактеристика.“

Родна предрасуда на језицима

Тхомас такође наводи документовани пример превода који прелазе стереотипна очекивања од каријере. Полазиште су две реченице: "Она је доктор. Он је медицинска сестра."

Ако их онда преведете на турски и вратите на енглески, добили бисте такве резултате које бисте могли очекивати од телефонске игре.

Уместо да почнете са оним с чиме сте започели, добили бисте некако очекивање из 1950-их, "Он је доктор. Она је медицинска сестра." Она објашњава да је то родно неутрално једнинско име у турском језику које ће род доделити на основу очекивања и стереотипне пристрасности. (Прочитајте Жене у АИ: Јачање сексизма и стереотипа техником.)

Иако су расне и родне предрасуде филтрирање у слике и језик разлог за узнемиреност, они нису нешто исто што и активна дискриминација која произилази из АИ, али и то се догодило.


Његов доказ био је снимак ограничења постављених за оглас у оквиру његове стамбене категорије који је дозвољавао могућност за сужавање публике проверавањем изузећа категорија попут Афроамериканаца, Азијаца или Хиспаноамериканца. Оглас можете погледати овде.

Као што ПроПублица истиче, дискриминаторни ефекат таквих огласа је незаконит и по Закону о поштеном становању из 1968. и о Закону о грађанским правима из 1964. године. Једина одбрана у овом случају је била да оглас није намењен самом становању, као што није био ' т о некретнини или кући која се продаје или изнајмљује.

Међутим, било је и других случајева циљања који указују на расну пристрасност и који су мотивирали разне субјекте да поднесу грађанске тужбе против друштвене мреже. Како је Виред јавио, коначно је ријешен да прилагоди своју технологију за циљање огласа као резултат нагодбе пет правних случајева који су је терете за омогућавање дискриминације мањина путем огласа у марту 2019. године.

АЦЛУ је у свом извештају о нагодби истакао колико би такви циљани реклами могли бити, јер мањине и жене можда чак и не схватају да им није дат исти приступ информацијама, смештају и могућностима рада који се деле са белцима.

Док се све више људи окреће интернету како би пронашли посао, станове и кредите, постоји стварни ризик да ће циљање огласа поновити и чак погоршати постојеће расне и родне предрасуде у друштву. Замислите да послодавац одабере приказивање огласа за инжењерске послове само мушкарцима - не само да корисници који нису идентификовани као мушкарци те огласе никад неће видети, већ никада неће знати шта су пропустили.

Уосталом, ретко имамо начин препознавања огласа које не видимо на мрежи. Да је ова дискриминација невидљивом кориснику све теже зауставити.

2. Родна и старосна дискриминација на послу

Међу правним случајевима била је илегална дискриминација у смештају која је дозвољено циљање. У свом извештају о нагодби, ПроПублица је рекао да је тестирао платформу и успео да купи „огласе везане за становање за оне које искључују групе као што су Афроамериканци и Јевреји, а претходно је нашао огласе за посао искључујући кориснике по узрасту и полу које су поставиле компаније то су имена домаћинстава. "

Бројни огласи за посао за које је АЦЛУ открио да су изричито намијењени само мушкарцима у одређеном узрасту, јер су корисници могли пронаћи кликом на одговор зашто су им приказани одређени огласи, приказани у другом чланку о жичанима. АЦЛУ је покренуо тужбу код Комисије за једнаке могућности запошљавања против друштвене мреже и компанија које су поставиле огласе уз образложење да крше и законе о раду и грађанским правима.

Дискриминација запошљавања особа старијих од 40 година крши савезни Закон о дискриминацији у области запошљавања (АДЕА). Али циљање огласа за посао само на људе испод тог узраста је једна од ствари које платформа омогућава.

ПроПублица је ставио да је фокус једног његовог извештаја изложио који огласи за посао искористе овај илегални облик искључења према старости. "Имена домаћинстава" укључују Веризон, УПС, Убер, Таргет, Статефарм, Северозападну заједницу, Мицрософт, Ј Стреет, ХусбСпот, ИКЕА, Фонд за јавни интерес, Голдман Сацх, ОпенВоркс и себе, између осталих.

Препознавање лица није успјело

„Препознавање лица је тачно, ако сте бели момак“ прогласио је наслов чланка Нев Иорк Тимеса објављеног у фебруару 2018. Навео је резултате који су открили јасну повезаност између тона коже и неисправне идентификације:

"Што је тамнија кожа, то ће се појавити више грешака - до скоро 35% за слике жена тамније коже, наводи се у новој студији која пробија свеже тло мерећи како технологија делује на људима различитих раса и пола."

Открића су заслужна Јои Буоламвини, истраживач у МИТ Медиа Лаб и оснивач Алгоритхмиц Јустице Леагуе (АЈЛ). Њено подручје истраживања су пристраности у којима се налази АИ, што резултира тако искривљеним резултатима када је у питању препознавање лица која не одговарају бијелој мушкој норми постављеној за модел.

Буоламвини је представила проблем расне и родне пристраности ради препознавања лица у разговору о ТЕД-у за 2017. годину, на који се реферирала на своју рану 2018. годину у видеу о Пројекту родних сенки из лабораторија МИТ:

<

Наведено у опису видео записа је да ће остављање АИ пристраности не бити контролирано, "осакатиће доб аутоматизације и додатно погоршати неједнакост ако се остави да се гњави". Ризици нису ништа мањи од „губитка профита оствареног покретом за грађанска права и женским покретом под лажном претпоставком машинске неутралности“.

Опис видео снимка додаје упозорење које су многи други сада истакли, као што смо видели у Женама у АИ: Ојачавање сексизма и стереотипа помоћу технике: „Аутоматизовани системи нису својствено неутрални. Они одражавају приоритете, склоности и предрасуде - кодирани поглед - оних који имају моћ формирања вештачке интелигенције. "

25. јануара 2019. године Буоламнвини је објавио Медиум пост који се бавио њеним сопственим истраживањима и оним додатним истраживачима који истичу како промашаји АИ доводе до грешака у Амазоновој Рекогнацији и захтевали да компанија престане да продаје АИ услугу полицијским одељењима.

Док се Рекогнизација може похвалити са стопостотном тачношћу препознавања мужјака са светлом кожом и 98,7% тачношћу чак и код тамнијих мужјака, када је реч о женки, тачност је пала на 92,9% код лакших женки. Још сјајнији био је оштар пад на само 68,6% тачности за тамније женке.

Али Амазон је одбио да се одузме. Чланак компаније Вентуре Беат цитирао је изјаву доктора Матт Воод-а, генералног менаџера за дубоко учење и АИ на АВС-у, у којој је инсистирао да налази истраживача не одражавају како се заправо користи АИ, објашњавајући:

„Анализа лица и препознавање лица потпуно су различити у погледу основне технологије и података који се користе за њихово тренирање. Покушај употребе анализе лица да се одреди тачност препознавања лица је лоше саветовати, јер то није предвиђени алгоритам за ту сврху. "

Али нису само они повезани са главним истраживачким центрима који су алгоритме сматрали врло проблематичним. АЦЛУ је извео сопствени тест по најповољнијој цени од 12,33 долара, наводи се у извештају Гизмодо-а. Установљено је да је Рекогнизација упоређивала 28 чланова Конгреса са фотографијама криминалаца.

„Лажне идентификације су направљене када је АЦЛУ Северне Калифорније задужио Рекогнизацију са упоређивањем фотографија свих 535 чланова Конгреса наспрам 25.000 јавно доступних бесплатних фотографија.“

Пошто је 11 од 28 било људи у боји, то одражава значајну грешку од 39% за њих. Насупрот томе, стопа грешке у целини била је прихватљивијих 5%. Шест чланова Црног каузета у Конгресу, који су били међу оним Рекогнизацијом повезаним са врпцама, изразили су забринутост у отвореном писму директору компаније Амазон.

Рецидивизам Биас

Пристраност уграђена у АИ против људи у боји постаје озбиљнији проблем када значи више од грешке у идентификацији. То је био налаз друге истраге ПроПублица из 2016. Последице такве пристраности нису ништа мање од слободе појединца, заједно с игнорисањем стварног ризика од особе чија је боја коже погодована алгоритмом.

Чланак се односио на два паралелна случаја у која су уплетени један бијели починитељ и један црни. Употребљен је алгоритам да се предвиди који ће вероватно поново прекршити закон. Црни је оцијењен високим ризиком, а бијели ниским.

Прогноза је схватила потпуно погрешно, а бели који је изашао на слободу морао је поново бити затворен. Ово је крајње проблематично јер се судови ослањају на бодовање у одлучивању о условној слободи, а то значи да расна пристрасност узета у програм значи неједнако поступање према закону.

ПроПублица је алгоритам ставила на сопствени тест, упоређујући оцене ризика од преко 7000 људи који су ухапшени у округу Бровард на Флориди, 2013. и 2014., са бројем који је против њих поднео нове кривичне пријаве у наредне две године.

Открили су да се само 20% предвиђања за понављање злочина насилног карактера обистинило, а још мањи прекршаји догодили су се само за 61% оних који имају бодове који указују на ризик.

Прави проблем није само недостатак тачности, већ и расна пристрасност:

  • Формула је посебно вјероватно лажно означила црне оптужене као будуће злочинце, погрешно их означивши на овај начин готово двоструко већим од бијелих оптужених.
  • Бели оптужени су погрешно означени као ниски ризик него црно оптужени.

У ствари, ово се претвара у стопу грешке од 45% за црнце и 24% за белце. Упркос тој блиставој статистици, Тхомас је известио да је Врховни суд Висцонсин још увек подржао употребу овог алгоритма. Такође детаљно описује друге проблеме повезане са алгоритмима рецидивизма.