Технологије у борби против лажних вести

Аутор: Laura McKinney
Датум Стварања: 3 Април 2021
Ажурирати Датум: 26 Јуни 2024
Anonim
Кто победит между американским истребителем F-22 Raptor и российским истребителем Су-35 Flanker-E?
Видео: Кто победит между американским истребителем F-22 Raptor и российским истребителем Су-35 Flanker-E?

Садржај


Извор: Вригхтстудио / Дреамстиме.цом

Одузети:

Лажне вијести покушавају манипулирати људима да вјерују у неистине, из разлога који се крећу од једноставно повећања кликова на друштвеним медијима до утицаја на изборе. Али технологија се бори с новим стратегијама за препознавање и заустављање у томе.

У последњих неколико година, фраза "лажне вести" добила је ново значење пошто је спојила све облике дезинформација које потичу из владиних завера, јавне пропаганде, тинејџерских потешкоћа и погрешних реклама. Другим речима, иако живимо у свету у којем су све врсте информација готово тренутно доступне, линија између истине и лажи никада није била мутнија.

Историја је пуна тих „смећаних прича“, неке од њих су древне као и стари Египат. Да ли сте знали да је фараон Рамесес Велики у 13. веку пре нове ере лажно приказао битку при Кадешу као запањујућу победу за своју војску, док се заправо завршила у застоју против Хетита? Ако је ваш одговор (готово сигурно) „не“, нисам ни ја. Једноставно сам је прочитао на Википедији након брзе претраге непуних неколико секунди - па се надам да ни то није лажна прича.


Данас смо овде добили проблем с обзиром на то да се нове смеће из дана у дан објављују захваљујући гомили прилично злих технологија које су произведене да би довеле у заблуду људе, понекад чак и гласајући за неког бескрупулозног политичара. Али, хеј, нема потребе да се плашим. Добра вест (пардон пун) је та друго осмишљене су технологије за борбу против лажних вести и њихово враћање на место којем заиста припада - канта за смеће. (Неки мисле да ће наредна итерација Ворлд Виде Веба помоћи да се сузбију лажне вести. Сазнајте више у Страигхт фром Тецх Екпертс: Шта ће дефинитивна карактеристика Веб 3.0 бити?)

Бес против машине (учење)

Један од најчешћих начина за ширење лажних вести јесте употреба великог броја робота. Потенцијал за аутоматизацију је огроман када је у питању дистрибуција или побољшање видљивости на друштвеним медијима. Ботови се могу програмирати да небројено пута деле, коментаришу или воле пост, повећавајући утиске о садржају и достижући велики број људи користећи иста правила на којима је изграђена већина платформи за друштвене медије.


Заустављање ботова у њиховим траговима је, дакле, један од најефикаснијих начина за сузбијање епидемије, али питање остаје исто - како можете препознати робота и рећи разлику између људи и машина? За друге људе његово прилично једноставно, али ниједно ИТ одељење никада не би могло достићи скалабилност која је потребна да би се надокнадила армијом робота. очигледно је развио сопствену анти-бот технологију, али никада није објаснио све детаље о њеној функционалности. Током претходног интервјуа за Нев Иорк Тимес, Марк Зуцкерберг је једноставно открио да су "применили неке нове АИ алате за идентификацију лажних рачуна и лажних вести" које долазе из македонског предузећа за лажне вести за профит.

Иако још увек постоје неке спекулације око стварних метода које се користе за идентификацију робота, изгледа да се већина ових нежељених рачуна може идентификовати као вештачка јер сви имају неке сличности у презентацији и времену. Анти-бот софтвер може препознати ове обрасце користећи анализу података, а затим их означити за даљу истрагу. Биометријска аутентификација се такође користи да се утврди који рачуни нису само ботови на, и заустави проблем на његовом извору.

Кажи ми лажи, реци ми слатке мале лажи

Други приступ отклањању овог проблема је суочавање са лажним вестима - које су очигледно још сложеније од само убиства неких ботова. Упркос различитим покушајима, до сада АИ није успео на више нивоа јер једноставно не може разумети људско писање као што то чине људи. У теорији, машина се учи да детектује „став“ чланака попут тона, осећања и стила који се користе током писања приче и да утврди да ли су информације можда нетачне или оштро лажне. АИ ће извршити дубинску анализу садржаја, УРЛ адресе и структуре наслова, као и веб локације која је објавила вести, његов веб саобраћај, рачун и целокупно ангажовање на друштвеним медијима. Међутим, резултати нису били нарочито охрабрујући, са нивоом успеха од око 65 процената. Људи су и даље потребни како би побољшали резултате и потврдили налазе, па је цео систем још увек у повојима. Неке ствари као што су суптилности тона, културне преваре или чак само неки добри стари хумор једноставно су изван машинске способности схватања.

Видео снимци су, међутим, на потпуно другом нивоу. Најмаштовитије технологије машинског учења, као што је генеративна адверсариална мрежа (ГАН), могу створити задивљујуће реалне видео снимке људи као што је Барацк Обама, говорећи много тога што никада није рекао. Са правим технологијама никада није било тако лако као што је сада стварање лажне слике. Како је објаснио Хани Фарид, професор рачунарске науке на Калифорнијском универзитету, који се бори против тих "дубоких фалсификата", "технологија је демократизовала." Али, бар овај пут, друге машине могу открити ове наизглед невидљиве модификације примењене на људско лице и открити лажне видео записе. У ствари, ови АИ могу тражити детаље које људско око никада не може ухватити, као што су незнатне промене светлости, недостатак трептања или промене боје на лицу које одговарају откуцају срца. Међутим, научници који раде на овим пројектима морају да из својих очигледних разлога чувају своје најбоље стратегије у тајности.

Без грешака, без стреса - Ваш корак по корак водич за креирање софтвера за промену живота без да вам уништи живот

Не можете побољшати своје вештине програмирања када никога није брига за квалитет софтвера.

Блокирање ланаца лажи Блоцкцхаин-ом

Блоцкцхаин и даље нуди рјешења за готово сваки савремени проблем. Између осталог (што може укључивати и битцоин), ова невероватно свестрана технологија може такође бити искоришћен за спречавање ране која је лажним вестима нанела нашем друштву. Блоцкцхаин може, у ствари, пружити толико потребну транспарентност и одговорност колико је свету вести толико потребно. Прво, може вам помоћи у праћењу порекла сваког чланка и дела, као и његових наредних корака, као што су ко их је делио и где.

Друго, може помоћи револуционарности постојећег система монетизације који се заснива више на генерисању погледа него на испоруци квалитетног садржаја. Они који зарађују више су они који могу да деле свој садржај на више места - што је много лакше када је чланак препун алармантних тврдњи, испуњен теоријама завере и унапређен тактикама застрашивања. Блок-ланац би могао да помогне медијским платформама да створе сопствену самоодрживу економију у којој би се криптокони могли користити да мотивишу ауторе да стварају поуздане и проверене податке. Интерно шифрирање података, верификација идентитета и потпуна сљедивост било којег дјела ради провјере било каквих пристраности аутора само су глазура на торти. (За више информација о блоцкцхаину, погледајте како Блоцкцхаин мења начин на који ви и ја послујемо.)

Не храни трола

Озбиљно, немој. Он ће постати огроман ако то учините. Дно црта је, иако нам машине и технологије могу помоћи да сузбијемо нови лажни прича који је био изложен, у крајњој линији је наша одговорност да пажљиво прочитамо све оно на што смо ставили поглед. На крају крајева, људи су од зоре цивилизације говорили лажи, али (колико знам) стари Египћани тада нису имали АИ да би им помогли да одвоје истину од лажи.

Сви ми имамо менталне способности да трошимо неколико секунди више од тога један друго и проверите изворе онога што читамо. Са или без технологија које ће нам помоћи, када следећи пут када поверујете у нешто што је лажна лаж, не заборавите да је и то ваша грешка.