Жасанды интеллект бүгінде не істей алады
Жасанды интеллект бүгінде не істей алады
Anonim

Спойлер туралы ескерту: машиналар көтеріліске дейін әлі көп уақыт бар.

Жасанды интеллект бүгінде не істей алады
Жасанды интеллект бүгінде не істей алады

Илон Маск адам тәрізді робот Tesla Bot-ты таныстырғанда, жаңа ғылыми төңкеріс жақын жерде тұрған сияқты. Тағы да - жасанды интеллект (AI) адамнан асып түседі, ал машиналар бізді жұмыста алмастырады. Дегенмен, атақты AI сарапшылары профессор Гари Маркус пен Эрнест Дэвистен мұндай тұжырымдарға асықпау ұсынылады.

Artificial Intelligence Reboot бағдарламасында зерттеушілер заманауи технологияның неліктен идеалдан алыс екенін түсіндіреді. «Alpina PRO» баспасының рұқсатымен Lifehacker бірінші тараудан үзінді жариялайды.

Осы кезде біздің амбициямыз бен жасанды интеллект шындығы арасында үлкен алшақтық бар - нағыз шыңырау. Бұл шұңқыр үш нақты мәселенің шешілмеуі салдарынан туындады, олардың әрқайсысына адалдықпен қарау керек.

Бұлардың біріншісі - сенгіштік деп атайтын нәрсе, ол біз адамдар адамдар мен машиналарды ажыратуды шынымен үйренбегендігімізге негізделген және бұл бізді алдауды жеңілдетеді. Біз интеллектті компьютерлерге жатқызамыз, өйткені біз өз әрекеттерін идеялар, сенімдер және тілектер сияқты абстракцияларға негіздейтін адамдар арасында дамып, өмір сүрдік. Машиналардың мінез-құлқы көбіне адамның мінез-құлқына үстірт ұқсайды, сондықтан біз машиналарда олар болмаса да, біз машиналарға бірдей типтегі негізгі механизмдерді тез тағайындаймыз.

Машиналар шын мәнінде ұстанатын ережелер қаншалықты қарапайым болса да, біз машиналарды когнитивтік терминдермен («Менің компьютерім файлымды жойдым деп ойлайды») ойламай тұра алмаймыз. Бірақ адамдарға қолданылғанда өзін ақтайтын тұжырымдар жасанды интеллект бағдарламаларына қолданылғанда мүлдем қате болуы мүмкін. Әлеуметтік психологияның негізгі қағидасын ескере отырып, біз мұны негізді дұрыстық қатесі деп атаймыз.

Бұл қатенің ең алғашқы жағдайларының бірі 1960 жылдардың ортасында, Элиза есімді чат-бот кейбір адамдарды оның айтып жатқан нәрселерді шынымен түсінетініне сендіргенде орын алды. Шынында да, Элиза жай ғана кілт сөздерді таңдап алып, адамның оған айтқан соңғы сөзін қайталады және тұйық жағдайда ол «Балалық шағың туралы айтып бер» сияқты стандартты сөйлесу трюктеріне жүгінді. Егер сіз анаңызды атасаңыз, ол сізден отбасыңыз туралы сұрайтын еді, бірақ ол отбасының не екенін және оның адамдар үшін неге маңызды екенін білмесе де. Бұл нағыз интеллекттің көрінісі емес, тек айла-шарғылар жиынтығы болды.

Элиза адамдарды мүлдем түсінбейтініне қарамастан, көптеген қолданушылар онымен диалогқа алданып қалды. Кейбіреулер бірнеше сағат бойы пернетақтада сөз тіркестерін теріп, Элизамен осылай сөйлесті, бірақ чатботтың амалдарын қате түсінді, тотықұстың сөзін пайдалы, шынайы кеңес немесе жанашырлық деп қате түсінді.

Джозеф Вайзенбаум Элизаның жаратушысы.

Машинамен сөйлесіп жатқанын жақсы білетін адамдар бұл шындықты тез ұмытып кетті, дәл солай театр сүйер қауымның сенімсіздігін біразға дейін шетке ысырып, өздері куә болған әрекетті шынайы деп атауға құқығы жоқ екенін ұмытып кетеді.

Элизаның сұхбаттастары жиі жүйемен жеке сөйлесуге рұқсат сұрады және сөйлескеннен кейін менің барлық түсіндірулеріме қарамастан, машина оларды шынымен түсінетінін айтты.

Басқа жағдайларда, түпнұсқалықты бағалаудағы қате сөздің тура мағынасында өлімге әкелуі мүмкін. 2016 жылы автоматтандырылған Tesla автокөлігінің бір иесі автопилот режимінің қауіпсіздігіне қатты сенгені сонша, (әңгімелер бойынша) ол Гарри Поттер фильмдерін көруге толықтай кірісіп, машинаны бәрін өз бетімен істеуге қалдырды.

Барлығы жақсы өтті - бір сәтке дейін нашарлады. Жүздеген, тіпті мыңдаған мильді апатсыз жүріп өтіп, көлік (сөздің барлық мағынасында) күтпеген кедергіге соқтығысты: ақ жүк көлігі тас жолды кесіп өтті, ал Тесла тіркеменің астына жүгіріп, көлік иесін сол жерде өлтірді.. (Көлік жүргізушіге басқаруды өз қолына алуды бірнеше рет ескерткен сияқты, бірақ жүргізуші тез әрекет ете алмайтындай болды.)

Бұл оқиғаның моральдық мәні анық: құрылғының бір-екі сәтке (тіпті алты айға) «ақылды» болып көрінуі оның шынымен солай екенін немесе оның барлық жағдайларды жеңе алатынын білдірмейді. адам адекватты түрде әрекет етер еді.

Екінші проблеманы біз жылдам прогресс иллюзиясы деп атаймыз: жасанды интеллекттегі прогресті қателесу, жеңіл есептерді шешумен байланысты, прогресс үшін, шын мәнінде қиын мәселелерді шешумен байланысты. Бұл, мысалы, IBM Watson жүйесінде болды: оның Jeopardy ойынындағы прогресс! өте перспективалы болып көрінді, бірақ іс жүзінде жүйе әзірлеушілер күткеннен гөрі адам тілін түсінуден әлдеқайда алыс болып шықты.

DeepMind компаниясының AlphaGo бағдарламасы да сол жолмен жүруі мүмкін. «Го» ойыны шахмат сияқты идеалдандырылған ақпараттық ойын, онда екі ойыншы да кез келген уақытта бүкіл тақтаны көре алады және дөрекі күшпен қозғалыстардың салдарын есептей алады.

Көп жағдайда нақты өмірде ешкім толық сенімділікпен ештеңе білмейді; деректеріміз жиі толық емес немесе бұрмаланған.

Ең қарапайым жағдайларда да белгісіздік көп. Дәрігерге жаяу барамыз ба, әлде метроға отырамыз ба (күн бұлтты болғандықтан) біз метро пойызын күтуге қанша уақыт кететінін, пойыз жолда кептеліп қала ма, жоқ па, нақты білмейміз. біз бөшкедегі майшабақ сияқты вагонға тығылып қаламыз немесе сыртта жаңбырда суланып қаламыз, метроға баруға батылы бармаймыз және дәрігер кешігіп қалуымызға қалай қарайды.

Біз әрқашан қолымызда бар ақпаратпен жұмыс істейміз. Go ойынын миллиондаған рет ойнай отырып, DeepMind AlphaGo жүйесі ешқашан белгісіздікпен күрескен емес, ол жай ғана ақпараттың жетіспеушілігі немесе оның толық еместігі мен сәйкессіздігі не екенін білмейді, адам әрекетінің күрделілігін айтпағанда.

Ақыл-ой ойындарын шынайы әлемнен мүлде басқа ететін тағы бір параметр бар және бұл тағы да деректермен байланысты. Тіпті күрделі ойындарды да (егер ережелер жеткілікті түрде қатаң болса) дерлік мінсіз модельдеуге болады, сондықтан оларды ойнайтын жасанды интеллект жүйелері жаттығуға қажетті үлкен көлемдегі деректерді оңай жинай алады. Осылайша, Go жағдайында машина өзіне қарсы ойнау арқылы адамдармен ойынды имитациялай алады; жүйеге терабайт деректер қажет болса да, оны өзі жасайды.

Осылайша бағдарламашылар аз немесе еш шығынсыз толығымен таза модельдеу деректерін ала алады. Керісінше, нақты әлемде мінсіз таза деректер жоқ, оны имитациялау мүмкін емес (ойын ережелері үнемі өзгеріп отырады) және сынақ арқылы көптеген гигабайттық деректерді жинау қиынырақ. және қате.

Шындығында, бізде әртүрлі стратегияларды сынауға бірнеше әрекет бар.

Біз, мысалы, көлік таңдауы тұрғысынан мінез-құлқымызды түбегейлі жақсарту үшін әр барар алдында шешімдердің параметрлерін біртіндеп реттей отырып, дәрігерге 10 миллион рет қайталай алмаймыз.

Егер бағдарламашылар қарт адамдарға көмектесу үшін (айталық, ауру адамдарды төсекке жатқызуға көмектесу үшін) роботты оқытқысы келсе, әрбір деректер нақты ақшаға және нақты адам уақытына тұрарлық болады; симуляциялық ойындарды пайдалана отырып, барлық қажетті деректерді жинауға мүмкіндік жоқ. Тіпті апат сынағы манекелері де шынайы адамдарды алмастыра алмайды.

Кәрілік қозғалысының әртүрлі сипаттамалары бар нағыз қарт адамдар туралы, әртүрлі төсек-орын түрлері, әртүрлі пижама түрлері, әртүрлі үйлер туралы мәліметтер жинау керек, және бұл жерде сіз қателесе алмайсыз, өйткені адамды бірнеше қашықтықта да түсіру. сантиметрлік төсек апатқа айналады. Бұл жағдайда тар жасанды интеллект әдістерін қолдану арқылы осы салада белгілі бір прогреске қол жеткізілді (әзірше ең қарапайым). Dota 2 және Starcraft 2 бейне ойындарында ең жақсы адам ойыншыларының деңгейінде дерлік ойнайтын компьютерлік жүйелер әзірленді, мұнда кез келген уақытта қатысушыларға ойын әлемінің бір бөлігі ғана көрсетіледі және осылайша әр ойыншы қарсы тұрады. ақпараттың жетіспеушілігі мәселесі – Клаузевицтің жеңіл қолымен «белгісіз тұман» деп аталады. Дегенмен, әзірленген жүйелер әлі де өте тар бағытталған және жұмысында тұрақсыз болып қала береді. Мысалы, Starcraft 2-де ойнайтын AlphaStar бағдарламасы әр түрлі кейіпкерлерден тек бір нақты жарысты үйренді және бұл әзірлемелердің ешқайсысы басқа жарыстар сияқты ойнатылмайды. Және, әрине, бұл бағдарламаларда қолданылатын әдістер әлдеқайда күрделі нақты өмірлік жағдайларда сәтті жалпылаулар жасауға жарамды деп айтуға негіз жоқ. шынайы өмірлер. IBM бір емес, екі рет (алдымен шахматта, содан кейін қауіпте!) ашқанындай, жабық дүниедегі мәселелердегі сәттілік ашық әлемде сәттілікке кепілдік бермейді.

Сипатталған шыңыраудың үшінші шеңбері - сенімділікті асыра бағалау. Қайта-қайта, біз адамдар жасанды интеллекттің көмегімен біраз уақыт ақаусыз жұмыс істей алатын қандай да бір мәселенің шешімін тапқан кезде, олар автоматты түрде қайта қарау кезінде (және деректердің сәл үлкенірек көлемімен) барлығын болжайтынын көреміз. сенімді жұмыс істейді.уақыт. Бірақ бұл міндетті емес.

Қайтадан жүргізушісіз көліктерді аламыз. Тыныш жолда анық белгіленген жолақпен дұрыс жүретін автономды көліктің демонстрациясын жасау салыстырмалы түрде оңай; дегенмен, адамдар мұны ғасырдан астам уақыт бойы жасай алды. Дегенмен, бұл жүйелерді қиын немесе күтпеген жағдайларда жұмысқа алу әлдеқайда қиын.

Дьюк университетінің адам және автономия зертханасының директоры Мисси Каммингс (және АҚШ Әскери-теңіз күштерінің бұрынғы ұшқышы) бізге электронды хатта айтқандай, мәселе жүргізушісіз көліктің апатсыз қанша миль жүре алатынында емес. Бұл машиналар өзгеретін жағдайларға бейімделе алады. Мисси Каммингстің айтуынша, 2018 жылдың 22 қыркүйегінде авторларға электрондық пошта., Заманауи жартылай автономды көліктер «әдетте, өте тар жағдайларда ғана жұмыс істейді, олар идеалды емес жағдайларда қалай жұмыс істейтіні туралы ештеңе айтпайды».

Феникстегі миллиондаған сынақ мильдерінде сенімді көріну Бомбейдегі муссон кезінде жақсы нәтиже көрсетуді білдірмейді.

Автономды көліктердің мінсіз жағдайларда (мысалы, қала маңындағы көп жолақты жолдардағы шуақты күндер) қалай әрекет ететіні мен экстремалды жағдайларда не істей алатыны арасындағы бұл түбегейлі айырмашылық бүкіл сала үшін оңай табыс пен сәтсіздікке айналуы мүмкін.

Төтенше жағдайларда автономды жүргізуге соншалықты аз көңіл бөлінбегендіктен және қазіргі әдістеме автопилоттың нақты қарастырыла бастаған жағдайларда дұрыс жұмыс істеуін қамтамасыз ету бағытында дамымағандықтан, көп ұзамай миллиардтаған долларлар болатыны анық болуы мүмкін. адам сияқты жүргізу сенімділігін қамтамасыз ете алмайтын өзін-өзі басқаратын көліктерді жасау әдістеріне жұмсалды. Бізге қажетті техникалық сенімділік деңгейіне жету үшін қазіргіден түбегейлі өзгеше тәсілдер қажет болуы мүмкін.

Ал автокөліктер – көптеген ұқсас көліктердің бір ғана мысалы. Жасанды интеллект туралы заманауи зерттеулерде оның сенімділігі жаһандық деңгейде жете бағаланды. Бұл ішінара осы саладағы қазіргі әзірлемелердің көпшілігі жарнаманы ұсыну немесе жаңа өнімдерді жылжыту сияқты қателерге төзімді мәселелермен байланысты.

Шынында да, біз сізге бес өнім түрін ұсынсақ және сізге оның үшеуі ғана ұнаса, ешқандай зиян болмайды. Бірақ болашаққа арналған бірқатар маңызды AI қосымшаларында, соның ішінде жүргізушісіз көліктер, қарт адамдарға күтім жасау және денсаулық сақтауды жоспарлау, адамға ұқсас сенімділік маңызды болады.

Қарт атаңызды төсекке бесеуінің төрт-ақ рет апара алатын үй роботын ешкім сатып алмайды.

Заманауи жасанды интеллект теориялық тұрғыдан ең жақсы жағынан көрінуі керек тапсырмалардың өзінде күрделі сәтсіздіктер жиі орын алады, кейде өте күлкілі көрінеді. Әдеттегі мысал: компьютерлер, негізінен, осы немесе басқа суретте не болып жатқанын (немесе болып жатқанын) қалай тануға болатынын жақсы үйренді.

Кейде бұл алгоритмдер керемет жұмыс істейді, бірақ көбінесе олар мүлдем керемет қателер тудырады. Егер сіз күнделікті көріністердің фотосуреттері үшін субтитрлерді жасайтын автоматтандырылған жүйеге кескінді көрсетсеңіз, сіз жиі адам жазатын нәрсеге өте ұқсас жауап аласыз; мысалы, бір топ адам фризби ойнап жатқан төмендегі көрініс үшін Google-дың жоғары деңгейде жарияланған субтитрлерді жасау жүйесі оған дұрыс атау береді.

1.1-сурет. Фризби ойнап жатқан жастар тобы (ақылды фотосурет, AI автоматты түрде жасаған)
1.1-сурет. Фризби ойнап жатқан жастар тобы (ақылды фотосурет, AI автоматты түрде жасаған)

Бірақ бес минуттан кейін сіз дәл сол жүйеден мүлдем абсурдты жауап ала аласыз, мысалы, біреу стикерлер жабыстырған мына жол белгісімен: жүйені жасаушылар деп аталатын компьютер бұл қатенің неліктен орын алғанын түсіндірмеді., бірақ мұндай жағдайлар сирек емес. Жүйе осы нақты жағдайда фотосуретті (мүмкін түсі мен құрылымы бойынша) «көп тағам мен сусындар толтырылған тоңазытқыш» деп белгіленген басқа суреттерге ұқсас деп санауға болады. Әрине, компьютер мұндай жазудың ішінде әртүрлі (тіпті бәрі емес) заттары бар үлкен төртбұрышты металл қорап болған жағдайда ғана орынды болатынын (адам оңай түсінетін) түсінбеді. бұл көрініс «көп тағамдар мен сусындар бар тоңазытқыш».

Күріш. 1.2. Тоңазытқышта азық-түлік пен сусындар толтырылған (жоғарыдағыдай жүйемен жасалған мүлдем қисынсыз тақырып)
Күріш. 1.2. Тоңазытқышта азық-түлік пен сусындар толтырылған (жоғарыдағыдай жүйемен жасалған мүлдем қисынсыз тақырып)

Сол сияқты жүргізушісіз көліктер де «көргенін» дұрыс анықтайды, бірақ кейде автопилотта тұрақта тұрған өрт сөндіру көліктеріне немесе жедел жәрдем көліктеріне соқтығысатын Тесла жағдайындағыдай, олар анық нәрсені елемейді. Мұндай соқыр нүктелер, егер олар электр желілерін басқаратын жүйелерде орналасса немесе халықтың денсаулығын бақылауға жауапты болса, одан да қауіпті болуы мүмкін.

Амбиция мен жасанды интеллект шындықтары арасындағы алшақтықты жою үшін бізге үш нәрсе қажет: осы ойында қауіп төндіретін құндылықтарды нақты білу, заманауи AI жүйелері неге өз функцияларын жеткілікті сенімді түрде орындамайтынын нақты түсіну және, ақырында, машиналық ойлаудың жаңа даму стратегиясы.

Жасанды интеллект жұмыс орындары, қауіпсіздік және қоғамның құрылымы тұрғысынан шынымен жоғары болғандықтан, бәрімізге - AI мамандарына, жақын кәсіптерге, қарапайым азаматтарға және саясаткерлерге - істің шынайы жағдайын түсіну өте маңызды. осы салада бүгінгі жасанды интеллекттің даму деңгейі мен сипатын сыни тұрғыдан бағалауды үйрену мақсатында.

Жаңалықтар мен статистикаға қызығушылық танытатын азаматтар үшін адамдарды сөздермен және сандармен адастырудың қаншалықты оңай екенін түсіну маңызды болғаны сияқты, жасанды интеллект қайда екенін анықтау үшін түсінудің маңызды аспектісі бар. ол қайда шын; ол қазір не істей алады және ол қалай білмейтінін және, мүмкін, үйренбейді.

Ең бастысы, жасанды интеллект сиқыр емес, жай ғана әдістер мен алгоритмдердің жиынтығы, олардың әрқайсысының күшті және әлсіз жақтары бар, кейбір тапсырмалар үшін қолайлы, ал басқалары үшін жарамсыз. Бұл кітапты жазуымыздың басты себептерінің бірі – жасанды интеллект туралы оқығандарымыздың көпшілігі бізге жасанды интеллекттің сиқырлы дерлік күшіне негізсіз сенімнен туындаған абсолютті қиял болып көрінеді.

Бұл арада бұл фантастиканың заманауи технологиялық мүмкіндіктерге еш қатысы жоқ. Өкінішке орай, AI-ны қалың жұртшылық арасында талқылауға алыпсатарлық пен асыра сілтеу қатты әсер етті және қатты әсер етті: адамдардың көпшілігі әмбебап жасанды интеллект жасау қаншалықты қиын екенін білмейді.

Әрі қарай талқылауды нақтылайық. Жасанды интеллектке қатысты шындықтарды нақтылау бізден елеулі сынды қажет ететініне қарамастан, біз өзіміз жасанды интеллектке қарсы емеспіз, бізге технологиялық прогрестің бұл жағы ұнайды. Біз өміріміздің маңызды бөлігін осы саланың кәсіпқойлары ретінде өткіздік және оның мүмкіндігінше тез дамуын қалаймыз.

Бірде американдық философ Хуберт Дрейфус жасанды интеллект қандай биіктерге жете алмайтыны туралы кітап жазды. Бұл кітап бұл туралы емес. Ол ішінара AI қазіргі уақытта не істей алмайтынына және оны түсінудің неліктен маңызды екеніне назар аударады, бірақ оның маңызды бөлігі компьютерлік ойлауды жақсарту және оны қазір бірінші орындау қиынға соғатын салаларға кеңейту үшін не істеуге болатыны туралы айтады.

Біз жасанды интеллект жойылғанын қаламаймыз; біз оның түбегейлі жақсарғанын қалаймыз, осылайша біз оған шынымен сене аламыз және оның көмегімен адамзаттың көптеген мәселелерін шеше аламыз. Бізде жасанды интеллекттің қазіргі жай-күйіне қатысты көптеген сындар бар, бірақ біздің сынымыз – бәрінен бас тартуға, бас тартуға шақыру емес, өзіміз жасайтын ғылымға деген сүйіспеншіліктің көрінісі.

Қысқасы, біз жасанды интеллект біздің әлемді шынымен өзгерте алатынына сенеміз; бірақ біз сонымен бірге AI туралы көптеген негізгі болжамдар нақты прогресс туралы айтудан бұрын өзгеруі керек деп санаймыз. Біздің жасанды интеллектті «қалпына келтіру» - бұл зерттеуді тоқтатуға мүлдем себеп емес (бірақ кейбіреулер біздің кітабымызды дәл осы рухта түсінуі мүмкін), керісінше диагноз: біз қазір қайда тұрып қалдық және одан қалай шығу керек? бүгінгі жағдай.

Біздің ойымызша, алға жылжудың ең жақсы жолы - өз санамыздың құрылымына қарап, ішке қарау.

Шынайы интеллектуалды машиналар адамның дәл көшірмесі болуы міндетті емес, бірақ жасанды интеллектке шын көңілмен қарайтын кез келген адам адамдардан, әсіресе жас балалардан әлі де көп нәрсе үйренетінін көреді. олардың жаңа ұғымдарды қабылдау және түсіну қабілеті.

Медицина ғалымдары компьютерлерді «адамгершіліктен жоғары» (бір жолмен немесе басқа) жүйелер ретінде сипаттайды, бірақ адам миы әлі де кем дегенде бес аспектіде кремний аналогтарынан әлдеқайда жоғары: біз тілді түсінеміз, әлемді түсіне аламыз, біз икемді түрде жасай аламыз. жаңа жағдайларға бейімделу, біз жаңа нәрселерді тез меңгере аламыз (тіпті үлкен көлемдегі деректер болмаса да) және толық емес және тіпті қарама-қайшы ақпаратқа қарсы пікір айта аламыз. Барлық осы майдандарда заманауи жасанды интеллект жүйелері адамдардан үмітсіз артта қалды.

Жасанды интеллект қайта жүктеледі
Жасанды интеллект қайта жүктеледі

Жасанды интеллект: қайта жүктеу заманауи технологияларды түсінгісі келетін және AI-ның жаңа ұрпағы өмірімізді қалай және қашан жақсарта алатынын түсінгісі келетін адамдарды қызықтырады.

Ұсынылған: