11 цитата о АИ због којих ћете размишљати

Аутор: Laura McKinney
Датум Стварања: 3 Април 2021
Ажурирати Датум: 26 Јуни 2024
Anonim
Кэтрин Шулц: Не жалейте о сожалениях
Видео: Кэтрин Шулц: Не жалейте о сожалениях

Садржај


Извор: Лин Схао Хуа / Дреамстиме.цом

Одузети:

Напредак АИ је неизбежан, а шта то значи за човечанство није уопште јасно. Неки верују да се можемо веселити великој будућности, док други мисле да то значи да смо на путу да нас натерају наши роботски надређени. Трећа перспектива је она која је свесна ризика, али их сматра управљивим.

Чујемо много о АИ и његовом трансформативном потенцијалу. Међутим, шта то значи за будућност човечанства, није сасвим јасно. Неки футуристи вјерују да ће се живот побољшати, док други мисле да је под озбиљном пријетњом. Такође постоји спектар положаја у средини. Ово је низ потражња од 11 стручњака.

1. "Далеко, највећа опасност од вештачке интелигенције је да људи закључе прерано да би је разумели." - Елиезер Иудковски

То је прва реченица у Иудковсијевом извештају за 2002. под називом „Вештачка интелигенција као позитиван и негативан фактор глобалног ризика“ за Институт за машинску интелигенцију (МИРИ). Иако појам АИ није био ни приближно толико као сада, још увек постоји проблем недостатка разумевања о могућностима и ограничењима технологије. У ствари, у последњих пар година било је више напора да АИ не буде само разумљив, већ и објашњив.


2. „Оно што је од виталног значаја је учинити да било шта о АИ буде објашњено, поштено, сигурно и подријетло, што значи да свако може врло једноставно да види како се развија свака апликација АИ и зашто.“ - Гинни Рометти

Директор ИБМ-а је ту изјаву дао током своје главне говорнице на ЦЕС-у, 9. јануара 2019. Позадина потврђивања потребе за објашњењем АИ је да његово држање као запечаћене црне кутије онемогућава провјеру и исправљање пристраности или других проблема у програмирању. ИБМ се ставио у камп у раду на решавању овог проблема, не само нудећи рачунарске услуге компанијама, већ и консултације о смањењу пристрасности за оне који граде системе машинског учења. (Сазнајте више о објасњеном АИ-у у АИ'с Гот Соме Екплаининг то До.)

Без грешака, без стреса - Ваш корак по корак водич за креирање софтвера за промену живота без да вам уништи живот

Не можете побољшати своје програмирање кад никога није брига за квалитет софтвера.


3. „Врхунски претраживач, што би разумело, знате, тачно оно што сте желели када сте уписали упит, а то би вам вратило тачно праву ствар, информатика ми то зовемо вештачком интелигенцијом. То значи да би то било паметно, а ми смо дугачки од тога да имамо паметне рачунаре. " - Ларри Паге

У то време, Гоогле-ов суоснивач и извршни директор рекао је то у новембру 2002, током ПБС НевсХоур сегмента под називом „Гоогле: претраживач који би могао.“ Домаћин је отворио размишљање о растућој популарности Гооглеа у години у којој је амерички дијалект Друштво га је оцијенило као најкориснији глагол који треба додати у употребу, мада ће требати још неколико година да то препознају ликови Мерриам-Вебстер. Али чак и рано, компанија је најавила своје интересовање за коришћење АИ.

4. „Избегавајте на СВИМ ТРОШКОВИМА свако спомињање или импликацију АИ. Оружани АИ је вероватно једна од најосетљивијих тема АИ - ако не и већина. Ово је црвено месо за медије да бисте пронашли све начине да нанесете штету Гооглеу. " - Феи Феи Ли, пионир из АИ компаније Гоогле, колегама о учешћу компаније у Пројецт Мавену

Гоогле је открио да бити главни играч у АИ може имати и слабију страну. У јулу 2017. године Министарство одбране представило је своје циљеве за Пројецт Мавен. Пуковник маринаца Древ Цукор, шеф тима крижарске функције Алгоритмичког ратовања у Дирекцији за обавештајну, надзорну и извиђачку операцију - подршка за борбу против ратовања у канцеларији подсекретара одбране за обавештајне послове, говорио је о свом наведеном циљу за годину: „Људи и рачунари ће радити симбиотички на повећању способности система наоружања да детектују објекте. "

Гоогле је био партнер у овом подухвату, али - као што је наведено у претходном цитату - Гооглеовим запосленима се није допало. На крају је компанија подлегла притиску и у јуну 2018. најавила је да неће обновити уговор са Министарством одбране. Како је известио Интерцепт:

Гоогле се суочио са све већим притиском откад су Гизмодо и Тхе Интерцепт уговор открили у марту. Скоро десетак запослених поднело је оставку у знак протеста, а неколико хиљада потписало је отворено писмо изјављујући да „Гоогле не би требало да се бави ратом.“ Више од 700 академика такође је потписало писмо са захтевом да „Гоогле раскине уговор са ДоД-ом, и да Гоогле и матична компанија Алпхабет се обавезују да неће развијати војне технологије и да неће користити личне податке које прикупљају у војне сврхе. "

5. "Вештачка интелигенција достићи ће ниво човека до око 2029. године. Слиједите то даље, рецимо, 2045. године, умножили бисмо интелигенцију, интелигенцију људске биолошке машине наше цивилизације милијарду пута." - Раи Курзвеил

Футурист и изумитељ то је рекао у интервјуу из 2012. године у којем је говорио о постизању бесмртности рачунарском снагом. Потврдио је „милијарду пута“ цифру и објаснио је овако: „То је тако јединствена промена да ову метафору позајмљујемо из физике и називамо је сингуларност, дубока реметилачка промена у људској историји. Наше размишљање постаће хибрид биолошког и небиолошког размишљања. "Очигледно је да је један од оптимистичних футуриста, сликајући мотећу промену која ће бити од велике користи. Даље је објаснио зашто верује да је бесмртност надохват руке: „додаћемо сваке године више од годину дана вашем преосталом животном веку, где вам пролази време, уместо да вам понестане, где вам се преостали животни век заправо протеже као време пролази."

6. „Највећа корист од доласка вештачке интелигенције је што ће АИ помоћи да се дефинише човечанство. Требају нам АИ да нам кажу ко смо. “ - Кевин Келли

Суоснивач Виред-а написао је ову сјајну тврдњу у својој књизи из 2016., „Неизбежни: разумевање 12 технолошких сила које ће обликовати нашу будућност.“ Док предвиђа пораст аутоматизације и послова које роботи преузимају, он предвиђа да тамо биће понављани циклус порицања, али напредак је неизбежан и мораћемо се томе прилагодити. Како је објаснио у интервјуу ИБМ-у: „Кроз АИ ми ћемо измислити многе нове типове размишљања који не постоје биолошки и који нису попут људског размишљања“, као и сребрне облоге у рачунарском облаку које он истиче је ово: „Дакле, ова интелигенција не замењује људско размишљање, већ је појачава.“

7. „Прави ризик за АИ није зло, већ компетентност. А суперинтелигентни АИ ће бити изузетно добар у остваривању својих циљева, а ако ти циљеви нису усклађени с нашим, имамо проблема. Вјероватно нисте зли мрзљивци који иду на мраве из злобе, али ако сте задужени за хидроелектрични пројекат зелене енергије и постоји мравињак у регији који треба да буде поплављен, превише је лош за мраве. Не ставимо човечанство у положај тих мрава. " - Стивен Хокинг

Овај цитат датира почетком 2015. То је био одговор који је Степхен Хавкинг понудио током Реддит АМА (Питај ме било чега) питања и одговора на питање учитеља који је желео да зна како да реши одређене проблеме везане за АИ који настају у његовим часовима, наиме следећи:

Како бисте представљали своја веровања мојој класи? Да ли су наша гледишта помирљива? Мислите ли да је моја навика да снижавам лаички Терминатор стил злог АИ наивна? И на крају, шта мислите, који морал бих јачати својим студентима који су заинтересовани за АИ?

Хавкинг показује одређену забринутост због могућих деструктивних ефеката АИ-ја на човјечанство, мада изгледа да вјерује да ризиком можемо управљати ако га планирамо, гледиште које дијеле неки други. (За више детаља погледајте зашто Суперинтелигенти АИ неће уништити људе било када.)

8. „Желите знати колико је супер интелигентан киборги да ли може да лечи обичне телесне људе? Боље за почетак истраживањем како људи поступају са својим мање интелигентним рођацима животиња. То, наравно, није савршена аналогија, али је најбољи архетип који можемо посматрати, а не само замислити. " - Иувал Ноах Харари

Професор Харари је то изговорио у својој књизи за 2017. „Хомо Деус: Кратка историја сутрашњице.“ Његово гледиште је одвојено од погледа позитивних футуриста у сликању пораста онога што назива датаизмом у којем су људи уступили супериорну земљу напредним вештачка интелигенција. Према објашњењу Хавкинга, обавезни смо да мрави буду преплављени. Ово је будућност којом доминира свеприсутни и свеприсутни „космички систем за обраду података“, а отпор је узалудан.

9. „Морамо се појединачно и заједнички бавити моралним и етичким питањима која постављају врхунска истраживања вештачке интелигенције и биотехнологија, што ће омогућити значајно продужење живота, дизајнерске бебе и вађење меморије. " - Клаус Сцхваб

Сцхваб је објавио своја размишљања о Четвртој индустријској револуцији у јануару 2016. Попут позитивних футуриста, он је предвиђао да ће будућност спојити "физички, дигитални и биолошки свет на начине који ће у основи трансформирати човечанство." Али он то није узео здраво за готово да је таква „трансформација позитивна“, апелујући на људе да планирају унапред са свешћу о „ризицима и могућностима који настају на том путу“.

10. „Много је написано о потенцијалу АИ који одражава и најбоље и најгоре човјечанство. На пример, видели смо да АИ пружа усамљен разговор и удобност; видели смо и да се АИ бави расном дискриминацијом. Ипак, највећа штета коју ће АИ вероватно нанијети појединцима у кратком року је премештање посла, јер је количина посла коју можемо аутоматизовати помоћу АИ знатно већа него раније. Као вође, на свима нама је да будемо сигурни да градимо свет у којем сваки појединац има прилику да напредује. " - Андрев Нг

Овај цитат долази из „Шта умјетна интелигенција може, а што не може сада“, чланак Андре Нг, оснивач Гооглеове екипе за мозак, бивши директор Станфорд Лабораторија за умјетну интелигенцију, написао је за Харвард Бусинесс Ревиев 2016. године када је било је генерално вођство Баиду-овог АИ тима. (2017. године постао је оснивач и директор компаније Ландинг АИ.) Објашњава могућности и ограничења АИ као и тада, а важи и данас. Иако Нг не представља дистопијску будућност којом доминирају подаци, он се слаже да они који га развијају имају одговорност да га примене уз потпуно разумевање његових и наменских и ненамерних последица.

11. "Нема разлога и ни на који начин да људски ум може да буде у току са вештачком Интелигентном машином до 2035." - Граи Сцотт

Овај цитат није погрешан, мада одступа од начина на који ћете га видети било где другде на мрежи, јер се увек појављује као "Нема разлога и нема начина да људски ум може да буде у току са машином вештачке интелигенције до 2035." Ево прича. На основу тога колико се далеко појављује у дигиталним изворима, то је вероватно речено 2015. године. Међутим, то нисам могао да припишем ни на шта посебно, чак ни после више сати претраживања и видео записа из тог периода. Па сам контактирао Сцота да бих питао извор. Признао је: „Не сећам се када сам први пут рекао да сам то рекао или где је то било.“ Али се сетио свог израза: „Цитат је увек био погрешан. Требало би гласити „умјетно интелигентно“. “