Да ли АИ може открити лажне вести?

Аутор: Laura McKinney
Датум Стварања: 4 Април 2021
Ажурирати Датум: 1 Јули 2024
Anonim
Детский хор Великан  - Ай будет круто!  КЛИП Премьера 2012!
Видео: Детский хор Великан - Ай будет круто! КЛИП Премьера 2012!

Садржај


Извор: Маст3р / Дреамстиме.цом

Одузети:

Истраживачи се обраћају АИ да се боре против лажних вести. Али може ли заиста помоћи или ће ствари само погоршати ствари?

Очекује се да ће лажне вести представљати велики трн на страни предстојећих председничких избора, а да не спомињемо њен укупни корозивни утицај на наш јавни дискурс уопште. У данашњем повезаном друштву, разликовање чињеница од фикције постаје све теже, због чега се неки истраживачи почињу фокусирати на моћ вештачке интелигенције да би решили овај проблем.

Надамо се, наравно, да ће машине, или тачније алгоритми, бити бољи од људи у примећивању лажи. Али да ли је ово реално очекивање или је само још један случај бацања технологије на наизглед неизрецив проблем?

Ухватити лопова. . .

Један од начина на који научници података планирају да заоштре АИ-јеву оштрину у овој области омогућавањем генерисања лажних вести. Аллен Институт за АИ на Универзитету у Васхингтону развио је и јавно објавио Гровер, мотор за обраду природних језика који је дизајниран да створи лажне приче о широком распону тема. Иако се ово у почетку може чинити контрапродуктивним, ово је у ствари прилично уобичајена тактика АИ тренинга у којој једна машина анализира излаз друге. На овај начин се аналитичка страна може убрзати много брже од ослањања на стварне лажне вести. Из института тврде да Гровер већ може радити са оцјеном тачности од 92%, али важно је напоменути да је само вјешт у разликовању садржаја који ствара АИ од садржаја који ствара човјек, што значи да би паметна особа и даље могла лагати лажну причу мимо њега. (Да бисте сазнали више, погледајте технологију око борбе против лажних вести.)


У правим рукама, наравно, Гровер може брзо да унапреди наше разумевање како се лажне вести стварају и како се шире, а то се теоретски може искористити за спречавање у стварном свету. Али како је Футурисм.цом недавно напоменуо, неки стручњаци који су узели систем за пробни рад су забринути колико је ефикасан у стварању веродостојних лажи, па чак и опонашају стилове писања легитимних вести попут Валл Стреет Јоурнала и Нев Иорк-а Тимес.

Али будући да је лагање инхерентно интуитиван и вођен емоцијама, да ли је могуће да чак и најпаметније машине, које се још увек возе хладном и чврстом логиком, могу икада достићи ниво узајамног разумевања неопходног за проналажење лажи? Мариа Алмеида компаније Унбабел недавно је приметила да, иако неке итерације могу бити прилично добре у томе, ниједан алгоритам не може се надати да ће постићи потпуно људско разумевање. То значи да би АИ могао да направи драматична побољшања у провери чињеница и упоредној анализи, али коначни позив је најбоље препустити обученим стручњацима.


Иронично је да ће ова способност бити најкориснија у откривању дубоких лажних видеа који почињу да врше заокруживање на друштвеним мрежама. Са АИ способним да анализира визуелне податке све до појединих пиксела, биће много спретнији у уочавању измењених слика него измењених речи и концепата.

Ипак, тврди Форбесов Цхарлес Товерс-Цларк, централни проблем лажних вијести није у томе што га неколико људи ствара, већ у томе да на њих утиче толико много људи. Људи имају тенденцију да верују у шта желе да верују, а не у оно што их чињенице воде. Дакле, чак и ако високо развијени АИ мотор изјави да је њихово веровање погрешно, људи ће бити склонији да сумњају у машину него они сами.

„Примена машинског учења за борбу против ширења лажних вести је примамљива“, каже он, „и постоји потреба да се овај проблем реши с обзиром на то да је поузданост главних медијских вести доведена у питање. Али, ширењем дезинформација сачињеним од друштвених медија, да ли откривање и откривање извора лажних вести може да надвлада људски инстинкт да верује у оно што нам се каже? "

Без грешака, без стреса - Ваш корак по корак водич за креирање софтвера за промену живота без да вам уништи живот

Не можете побољшати своје вештине програмирања када никога није брига за квалитет софтвера.

Прави изазов, дакле, није идентификовање и раскринкавање лажних вести већ разумевање зашто тежи да се шири преко друштвених медија толико брже од стварних вести. Делом је то због природе самих лажних вести, које имају тенденцију да буду узбудљиве и слане у односу на упоредни досије стварности. На крају, да ли је реално очекивати да ће технологија исправити оно што је у основи нетехнички проблем? (За више информација о томе како АИ мења медије, погледајте 5 АИ Напредак у издавању и медијима.)

Заустављање ширења

Због тога је важно усмјерити АИ на технички аспект лажних вијести, а не на људски аспект, каже Робин Харрис из ЗДНета. И заиста, већина истраживача тренира АИ да се укључе у ствари попут разликовања природних и вештачких образаца ширења путем друштвених мрежа. Кључне метрике попут стопе конверзије, временских ретвеетова и укупних података одговора могу се користити за идентификацију и неутрализирање кампања дезинформација, чак и ако је њен извор скривен испод слојева дигиталне подтаве. У исто време, АИ се може користити за управљање другим технологијама, попут блоцкцхаина, за одржавање следљивих, проверљивих информационих канала.

Чињеница је да лажне вијести нису нова појава. Од мукотрпног новинарства раних 20-ихтх века све до пропаганде најранијих цивилизација, превлачење јавности је традиција коју поштује време и за владајуће владе и за револуционаре. Разлика је данас у томе што је дигитална технологија демократизовала ову способност до те мере да готово свако може објавити лаж и гледати како се шири по свету за неколико сати.

Технологије попут АИ могу сигурно помоћи да се донесе јасност у овој збрци, али само људи могу у потпуности разумети и судити истину.