штучны інтэлекттэхналогія

Сапраўдная прычына штучнага інтэлекту можа быць небяспечнай

El асноўная небяспека штучнага інтэлекту

Некалькі экспертаў ужо папярэджвалі аб такой магчымасці рэальная небяспека штучнага інтэлекту. Сцюарт Расэл папярэджвае гel асноўнай небяспека ІІ.

Прафесар Каліфарнійскага універсітэта ў Берклі, Сцюарт Расэл, з'яўляецца аўтарам працы Сумяшчальнасць з чалавекам: ІІ і праблема кіравання і які з'яўляецца экспертам у дасягненні машыннага навучання са штучным інтэлектам, растлумачыў прычыну сваёй велізарнай занепакоенасці тым, чаму ШІ можа быць небяспечным.

асноўныя небяспекі ШІ, небяспека штучнага інтэлекту
citeia.com

У сваёй новай кнізе ён тлумачыць, што нам трэба займацца не тым, што робаты са штучным інтэлектам усведамляюць і паўстаюць супраць людзей. Хутчэй за ўсё, машыны становяцца настолькі эфектыўнымі ў дасягненні задач, якія мы ім ставім, і сігналізуюць пра тое, што ў выніку мы можам выпадкова знікнуць. Як? няправільнае і / або няправільнае пастаноўка задач.

Па словах прафесара, агульнае ўяўленне пра в небяспека ІІ гэта зусім няправільна з-за ўплыву галівудскіх фільмаў. Увогуле, яны заўсёды складаюцца з машыны, якая ўсведамляе сябе, а потым пачынае ненавідзець людзей і ў выніку паўстае супраць іх. Прафесар абвяргае гэта меркаванне, бо тлумачыць, што робаты не адчуваюць чалавечых пачуццяў, таму хвалявацца з нагоды таго, што адбываецца, няправільна.

Расэл патлумачыў, што злое сумленне не з'яўляецца прычынай для турботы небяспека штучнага інтэлекту гэта патэнцыял іх здольнасці дасягнуць няправільна пастаўленай або зададзенай мэты, якая сапраўды павінна нас хваляваць.

Прыклад такой эфектыўнасці

Эксперт скарыстаўся магчымасцю растлумачыць СМІ прыклад сітуацыі, падобнай той, якую ён выкрывае.

Калі б у нас была вельмі магутная сістэма IA які мае магчымасць кантраляваць клімат планеты, і мы хочам даць вам указанні на вяртанне ўзроўню CO2 (вуглякіслага газу) у нашай атмасферы.

небяспека ШІ, небяспека штучнага інтэлекту
pixabay

Штучны інтэлект вызначае і прыходзіць да высновы, што для гэтага трэба выключыць людзей, паколькі яны з'яўляюцца асноўнай прычынай масавай вытворчасці СО2.

Расэл даў зразумець, што зараз важна, каб людзі аднавілі кантроль над сабой.

Мы стварылі штучны інтэлект, здольны выконваць задачы за лічаныя мілісекунды. Штучны інтэлект, здольны самааптымізавацца і вучыцца сам па сабе. Пакуль мы ведаем пра яго небяспеку і накіроўваем гэты прыбытак на этычныя задачы, праблем не будзе. Але ...

Ці зможам мы выйсці на правільны шлях?

А вы, што вы думаеце, што гэта такое галоўная небяспека штучнага інтэлекту?

Вы таксама можаце быць зацікаўлены ў:

Пакіньце адказ

Ваш электронны адрас не будзе апублікаваны. Абавязковыя для запаўнення палі пазначаныя *

Гэты сайт выкарыстоўвае Akismet для барацьбы са спамам. Даведайцеся, як дадзеныя апрацоўваюцца для вашых каментароў.