Дрондар мен өздігінен жүретін көліктер қару ретінде: неге хакерлерден қорқу керек
Дрондар мен өздігінен жүретін көліктер қару ретінде: неге хакерлерден қорқу керек
Anonim

Жасанды интеллект дұрыс емес адамдардың қолына түссе, өркениетті әлем хаосқа түсуі мүмкін.

Дрондар мен өздігінен жүретін көліктер қару ретінде: неге хакерлерден қорқу керек
Дрондар мен өздігінен жүретін көліктер қару ретінде: неге хакерлерден қорқу керек

Жасанды интеллект біздің өмірімізді келесі деңгейге көтеретінін ешкім жоққа шығармайды. AI адамның қолынан келмейтін көптеген мәселелерді шеше алады.

Дегенмен, көптеген адамдар супербарлау SkyNet сияқты бізді міндетті түрде жойғысы келеді немесе Portal ойынындағы GLADoS сияқты адамдарға эксперимент жүргізе бастайды деп сенеді. Бір қызығы, жасанды интеллект тек адамдар ғана жақсы немесе жамандық жасай алады.

Неліктен жасанды интеллект елеулі қауіп болуы мүмкін?
Неліктен жасанды интеллект елеулі қауіп болуы мүмкін?

Йель университеті, Оксфорд, Кембридж және OpenAI зерттеушілері жасанды интеллектті теріс пайдалану туралы есебін жариялады. Онда нағыз қауіп хакерлерден келетіні айтылған. Зиянды кодтың көмегімен олар АИ бақылауындағы автоматтандырылған жүйелердің жұмысын бұза алады.

Зерттеушілер жақсы ниетті технологиялар зиян тигізеді деп қорқады. Мысалы, бақылау құралдары лаңкестерді ұстау үшін ғана емес, қарапайым азаматтарды аңдыу үшін де қолданылады. Зерттеушілер сонымен қатар азық-түлікті жеткізетін коммерциялық дрондарға алаңдайды. Оларды ұстап алып, жарылғыш затты отырғызу оңай.

Жасанды интеллектіні деструктивті қолданудың тағы бір сценарийі - өздігінен жүретін көліктер. Кодтың бірнеше жолын өзгерту жеткілікті, ал машиналар қауіпсіздік ережелерін елемей бастайды.

Неліктен жасанды интеллект елеулі қауіп болуы мүмкін?
Неліктен жасанды интеллект елеулі қауіп болуы мүмкін?

Ғалымдар қауіп сандық, физикалық және саяси болуы мүмкін деп санайды.

  • Жасанды интеллект қазірдің өзінде әртүрлі бағдарламалық кодтардың осалдықтарын зерттеу үшін қолданылуда. Болашақта хакерлер кез келген қорғанысты айналып өтетін бот жасай алады.
  • AI көмегімен адам көптеген процестерді автоматтандыра алады: мысалы, дрондар тобын немесе автокөліктер тобын басқара алады.
  • DeepFake сияқты технологиялардың көмегімен интернетте боттарды пайдаланатын әлем көшбасшылары туралы жалған ақпарат тарату арқылы мемлекеттің саяси өміріне әсер етуге болады.

Бұл қорқынышты мысалдар әзірге тек гипотеза ретінде бар. Зерттеу авторлары технологиядан толық бас тартуды ұсынбайды. Оның орнына, олар ұлттық үкіметтер мен ірі компаниялар AI индустриясы әлі қалыптасып жатқан кезде қауіпсіздікті қамтамасыз етуі керек деп санайды.

Саясаткерлер технологияны зерттеп, жасанды интеллектті құру мен пайдалануды тиімді реттеу үшін осы саладағы сарапшылармен жұмыс істеуі керек.

Әзірлеушілер, өз кезегінде, жоғары технологиялар тудыратын қауіпті бағалауы керек, ең нашар зардаптарды болжап, олар туралы әлем көшбасшыларын ескертуі керек. Есеп AI әзірлеушілерін басқа салалардағы қауіпсіздік сарапшыларымен бірігіп, жасанды интеллектті қорғау үшін осы технологиялардың қауіпсіздігін қамтамасыз ететін принциптерді қолдануға болатынын білуге шақырады.

Толық есепте мәселені егжей-тегжейлі сипаттайды, бірақ қорытынды: AI қуатты құрал. Барлық мүдделі тараптар жаңа технологияны зерттеп, оның қылмыстық мақсатта пайдаланылмауына көз жеткізуі керек.

Ұсынылған: