Курал катары дрондор жана өзүн-өзү башкаруучу унаалар: эмне үчүн хакерлерден коркушубуз керек
Курал катары дрондор жана өзүн-өзү башкаруучу унаалар: эмне үчүн хакерлерден коркушубуз керек
Anonim

Эгерде жасалма интеллект туура эмес колго түшүп калса, цивилизациялуу дүйнө башаламандыкка батып кетиши мүмкүн.

Курал катары дрондор жана өзүн-өзү башкаруучу унаалар: эмне үчүн хакерлерден коркушубуз керек
Курал катары дрондор жана өзүн-өзү башкаруучу унаалар: эмне үчүн хакерлерден коркушубуз керек

Жасалма интеллект биздин жашообузду кийинки деңгээлге көтөрө аларын эч ким танбайт. AI адамдардын күчү жетпеген көптөгөн маселелерди чече алат.

Бирок, көпчүлүк суперинтеллект SkyNet сыяктуу бизди жок кылгысы келет же Portal оюнунан GLADoS сыяктуу адамдарга эксперимент жүргүзө баштайт деп ишенишет. Кызык жери – адамдар гана жасалма интеллектти жакшы же жаман кыла алат.

Эмне үчүн жасалма интеллект олуттуу коркунуч болушу мүмкүн
Эмне үчүн жасалма интеллект олуттуу коркунуч болушу мүмкүн

Йель университетинин, Оксфорддун, Кембридждин жана OpenAIнин изилдөөчүлөрү жасалма интеллекттин кыянаттык менен пайдаланылышы боюнча отчетун жарыялашты. Анда чыныгы коркунуч хакерлерден келип чыкканы айтылат. Зыяндуу коддун жардамы менен алар AI көзөмөлүндөгү автоматташтырылган системалардын ишин үзгүлтүккө учуратышы мүмкүн.

Изилдөөчүлөр жакшы ниеттенген технологиялар зыян келтирет деп кооптонушат. Маселен, байкоочу жабдууларды террорчуларды кармоо үчүн эле эмес, жөнөкөй жарандарды аңдыганга да колдонсо болот. Окумуштууларды тамак-аш жеткирүүчү коммерциялык дрондор да тынчсыздандырууда. Аларды кармап, жардыргыч затты отургузуу оңой.

AI кыйратуучу колдонуунун дагы бир сценарийи - өзүн-өзү башкаруучу унаалар. Бул коддун бир нече саптарын өзгөртүү үчүн жетиштүү болуп саналат, жана машиналар коопсуздук эрежелерин этибарга албай баштайт.

Эмне үчүн жасалма интеллект олуттуу коркунуч болушу мүмкүн
Эмне үчүн жасалма интеллект олуттуу коркунуч болушу мүмкүн

Окумуштуулар коркунуч санариптик, физикалык жана саясий болушу мүмкүн деп эсептешет.

  • Жасалма интеллект буга чейин ар кандай программалык коддордун алсыз жактарын изилдөө үчүн колдонулуп жатат. Келечекте хакерлер ар кандай коргоону кыйгап өтө турган бот түзө алышат.
  • AIнын жардамы менен адам көптөгөн процесстерди автоматташтыра алат: мисалы, дрондордун үйүрүн же унаалардын тобун башкара алат.
  • DeepFake сыяктуу технологиялардын жардамы менен интернетте ботторду колдонгон дүйнө лидерлери тууралуу жалган маалымат таратуу аркылуу мамлекеттин саясий жашоосуна таасир этүүгө болот.

Бул коркунучтуу мисалдар азырынча гипотеза катары гана бар. Изилдөөнүн авторлору технологиядан толук баш тартууну сунуштабайт. Анын ордуна, алар улуттук өкмөттөр жана ири компаниялар AI индустриясы жаңыдан башталбай турганда коопсуздукка кам көрүшү керек деп эсептешет.

Саясатчылар технологияны изилдеп, жасалма интеллектти түзүүнү жана колдонууну эффективдүү жөнгө салуу үчүн бул тармактагы эксперттер менен иштешүүсү керек.

Иштеп чыгуучулар, өз кезегинде, жогорку технологиялар туудурган коркунучка баа берип, эң жаман кесепеттерди алдын ала билиши жана алар жөнүндө дүйнөлүк лидерлерди эскертиши керек. Отчет AI иштеп чыгуучуларын башка тармактардагы коопсуздук адистери менен биригүүгө жана бул технологиялардын коопсуздугун камсыз кылган принциптер жасалма интеллектти коргоо үчүн колдонулушу мүмкүнбү же жокпу, көрүүгө чакырат.

Толук отчетто көйгөй кененирээк сүрөттөлөт, бирок AI күчтүү курал болуп саналат. Бардык кызыкдар тараптар жаңы технологияны изилдеп, анын кылмыштуу максатта колдонулбагандыгын текшериши керек.

Сунушталууда: