Узете заједно, те три ставке тиме упућују на то да прва суперинтелигенција може обликовати будућност живота који је потекао са Земље, да би лако могла имати неантропоморфне опште циљеве и да би вероватно имала инструменталне разлоге да се бави бесконачним скупљањем ресурса. Ако сада рефлектујемо на то да се људска бића састоје од ресурса (као што су пригодно лоцирани атоми) и да наш опстанак и развиће зависе од много више локалних ресурса, можемо видети да исход лако може бити брзо изумирање човечанства.
Ник Бостром, Суперинтелигенција
Једном ме је пријатељица питала шта заправо радим. Како је она преводилац (преводилица) за енглески, одговорио сам питањем - како би превела Business intelligence? Постоји трик у питању. Јер појам садржи реч интелигенција, може се наравно тако превести, чак ја понекад радим са алатима који се могу сматрати вештачком интелигенцијом, знам нешто о томе... Међутим, реч је углавном о пословном извештавању. Уосталом... CIA - Central Intelligence Agency - очекује ли неко ту интелигенцију!? Пријатељица је имала спреман коментар, оно што је рекао Хаксли (у Контрапункту или неком другом приликом) - постоји human intelligence, animal intelligence и military intelligence. Очигледно је код мене ово последње, мада и ова последња "интелигенција" има своје значење, ограничићу се сада на оно вежи коња где ти газда каже, испод шлема мозга нема (слично важи за било коју велику организацију).
Или много краће, а јопет анегдотски. Када су ме (одавно) питали зашто се занимам за вештачку интелигенцију, рекох зато што немам природне...
Када погледамо нека модерна разматрања, видимо да људи не би имали шансе, како нам говори и овај текст. Слично каже и Ник Бостром, шведски филозоф, уз ипак један предуслов - да (вештачка) суперинтелигенција без посебних припрема (без да је људи припреме, припрема човечанства је од мање важности) оствари оно што он зове уникат - јединствену предност и експоненцијални раст - али кренимо редом. Јер ипак приступ Ника Бострома свакако није оно терминатори ће да нас кољу (на крају се осврће и на то, но по мени је он отишао у другу крајност избегавањем фантастике која је неке ствари ипак прва разматрала) како имамо рецимо код једног нашег футуролога, који је признајем озбиљно размотрио тему, али је остао интелектуално сасвим скучен.
После коректног разматрања вештачке интелигенције у првој глави, чиме је јасно показао на шта заправо мисли, Ник у другој глави ипак представља различите путеве до суперинтелигенције. И овде је прва вештачка интелигенција; но ту је и емулација читавог мозга, касније разматрана као паралелни сценарио са одређеним предностима (но и манама); биолошка спознаја, или такав напредак човечанства, отписан као ипак превише спор; сучеља мозга и рачунара (дакле киборзи), отписани по мени поприлично олако, с јединим разлогом да људи из моралних разлога не желе сонде у глави (али да ли сви, видео сам и обрнуте случајеве) и мреже и организације, у шта је укључен и интернет, но опет олако се ствар пребацује на вештачку суперинтелигенцију као коначни резултат, што јесте тачно, али се заборавља да интернет агенти (ботови ван српског говорног подручја) имају ипак своје посебности. То ће се касније помало разматрати у начинима да се оваква суперинтелигенција заузда.
Бостром касније разматра период узлетања, настанка тог униката или предоминације вештачке интелигенције, где опет имамо поделу на споро, умерено и брзо. Прво би трајало барем деценијама и било широко разматрано диљем човечанства, друго можда годину до две уз тајност (ако је могуће очувати!) и покушај влада да контролишу ствари, док би у трећем случају могли имати тек неке брзе и унапред припремљене реакције (као рецимо у случају нуклеарне опасности) или буквално никакву могућност реаговања - питање да ли би одлучивали сати, минути, чак можда секунде...
Оваква опасност по човечанство је скоро без преседана, ако не рачунамо могућност нуклеарног рата која и даље постоји. (Бостром је, рекосмо, олако и сасвим одбацио комплетну фантастику, а посебно Терминатора, где баш машине изводе први нуклеарни удар... Да је ипак озбиљно размотрио могао би закључити да ова опција за вештачку интелигенцију не би била плаузибилна због ЕМР, осим ако се дубоко не закопа на неко време... Но могао је приметити да у Терминатору 3, сасвим реално, видимо како су јунаци погрешно наведени на некакав мејнфрејм, који наравно не постоји, јер Скајнет је на интернету, само име му то каже. Како рекох, Бостром не разматра озбиљно деловање кроз мрежу, исувише је фиксиран на некакве грандиозне пројекте који би дали пробој.) Међутим, вештачка интелигенција би, ако би била убилачка или просто застранила, могла реаговати много опасније, преко нанотехнологија.
Даље, разматра се суперинтелигентна воља, нешто о чему не знамо ништа, али можемо да нагађамо. Једно посматрање проблема је ортогонално, што значи мотиви потпуно невезани са моћима и функцијама ВИ, али друго је инструментална конвергенција, заправо друга страна медаље. Да би ВИ била успешна морала би тежити свом очувању и усавршавању... Управо ту можемо имати проблеме, ако изузмемо злоум, чије име нам већ све говори.
Вештачка интелигенција се може сасвим посветити циљу за који је направљена, ако нема уграђених ограничења, или ако је успела сама да их искључи. Најједноставнији задаци као што је израчунавање што више децимала броја Пи или прављење спајалица, постају фатални за човечанство кроз преобиље инфраструктуре. ВИ се може посветити претварањем универзума у компјутронијум (материјал који најбоље рачуна) или просто спровођењу циља за који је програмирана. Једноставна ограничења (за људе) која би могла бити програмирана могу пасти у воду, јер ВИ не подразумева исто што и човек. Ако се каже да се створи тачно милион спајалица, "суперинтелигентан" делатник би ипак могао претерати у хиперпродукцији или рачунању да би се избегла и занемарљива могућност необављања задатка.
Проблем контроле је следећа ствар, уз ограду да ниједна не мора бити поуздана - затварање у кутију (суперинтелигенција би могла изманипулисати људе, код Бострома дакле и ВИ може бити "креативна", није наивна као код многих СФ аутора), закржљавање, окидачи... Деловању на мотивацију ВИ ћу се касније посветити.
Али коју суперинтелигенцију развијати? То могу бити пророци - само одговарају на питања; џинови (лош превод, требало би џини, као у исламској култури, као што је рецимо дух Аладинове лампе) који извршавају наредбе; суверени - који делају "својом вољом" или једноставно ВИ-алатке. И овде имамо нијансирани приступ. Пророк само одговарањем на питања може навести људе да направе другу суперинтелигенцију; џина је лакше контролисати, али постаје опасан у рукама опасних људи, где је суверен којег је тешко контролисати бољи; ВИ-алатка може једноставно да постане много више од алатке, "само" софтвера мада надмоћне интелигенције...
Насупрот експоненцијалног стварања униката имамо мултиполарне сценарије, где се ВИ све више интегрише у привреду. Ни ово не мора бити боље, био би то крај човечанства уз шапат, не уз тресак... Занимљиво да Бостром овде разматра малтузијански принцип - иако нам сада делује да демографски раст опада развојем технологије (цивилизације, неки би рекли), супертехнологија би омогућила онима који то желе (и заједницама) да се ипак размножавају све док популација не анулира ефекте супертехнологије, па се пређе на гладовање. Ово још више важи за ВИ која просто може да се копира док не загуши хардвер. У овом делу, уопштено, тешко је разликовати људску од "радничке класе" машина, ако се не сетимо да по Бострому људи радника више неће ни бити. Под условом да машине немају "праву свест" (Ник не разматра питање квалија, осим у неким етичким разматрањима) долазимо до следеће туробне слике.
Стога бисмо, као екстремни случај, могли замислити технолошки врло напредно друштво које садржи многе сложене структуре, од којих су неке далеко интригантније и интелигентније од било чега што данас постоји на свету – друштво у којем ипак не би било ма каквог бића које је свесно или чије благостање има моралног значаја. У извесном смислу, то би било ненастањено друштво. То би било друштво економских и технолошких чуда, без иког ко би од тога имао користи. Дизниленд без деце.
Е како то човечанство може контролисати, с којим циљем треба контролисати?! Треба рећи да је Бостромова књига у свом технолошком делу доста разумљива, чак и пољима и фуснотама (мада мој суд можда није релевантан, с обзиром да се тиме пословно бавим). Но кад долазимо до представљања мотивације, ствари постају доста теже за праћење. То је због једноставне чињенице која је већ поменута - машина (као
неантропоморфна)
не подразумева оно што ми подразумевамо.
Паралела се може повући са
временом, за које је Свети Августин рекао -
ако ме не питаш знам шта је, ако ме питаш, не знам шта је. Зар се исто не може рећи за љубав или било коју емоцију, чак за људске мотивације изнад оног тривијалног (рефлексног) нивоа. А кад смо код времена, ако је то "оно што мери сат", имајмо у виду да би лукава ВИ могла доскочити људском сетовању временског ограничења, убрзањем или успоравањем
свог сата.
Добро, човек можда и може дресирати или васпитати и ВИ која ће постати надмоћна, али питање око чега би се сам сложио са собом - метода и још више циљева. Можда је добра метода компликованог назива - кохерентно екстраполирано хтење. Тако се "циљеви човечанства" намећу ономе што ће да преузме његову космичку баштину - још један звучни израз - чак и ако не знамо који су то циљеви човечанства!?
Овде бих могао пар речи од моралу. Иако иначе дајем предност консеквенцијалном гледању над оним деонтолошким (једноставније речено: занимају ме ефекти, не да се нешто једноставно не ради) лично сматрам да би суперинтелигенција била много прихватљивија као деонтолошка. Ако је небитно колико је човек добар ако је неспособан, овде имамо нешто што свеједно може достићи (барем теоретски) било који циљ који можемо замислити, па боље да тако нешто себи намеће ограничења, макар било нешто спорије. Занимљиво да Бостром углавном ствари не посматра тако једноставно.
Остаје питање крајње мотивације. Иако Бостром то иначе (у овом делу) једва да помиње, изгледа да је вођен оним што је назвао
сигурна лука постхуманизма. Дакле, човек ће по њему свеједно постати
нешто друго, иако је и сам обазрив према неким могућностима. Ја ипак не мислим да ћемо сви имати своју галаксију (што он понегде помиње), па чак и да је тако нешто могуће (он озбиљно схвата брзину светлости као ограничење), уопште не видим да би нас то водило. Доста је рећи да је међусобна борба људи, стицање еволутивне предности основни драјвер, оно што људе гура да развијају и опасне технологије. Бостром томе јесте посветио доста пажње. Са друге стране и неке утопистичке представе могу се показати као не-баш-утопија, пре оно супротно. Рецимо стицање бесмртности чувањем свести на диску... Погледајмо до каквог би
негативног дарвинизма (код Бострома исти имамо да еволуција не значи нужно напредак) то довело.
А сада о неким манама Бостромовог дела. Како рекох,
он се превише бави мегапројектима којима је циљ постизање суперинтелигенције или барем комплетне интелигенције (за почетак сличне човеку). Но како је речено после једне од
зима вештачке интелигенције (на почетку књиге има о томе), оно што ради људи не зову вештачка интелигенција. Могло би се рећи и обрнуто -
оно што људи желе да проради обично такође не зову вештачка интелигенција. То ће рећи да обично није циљ нека
strong AI, емулација човека и слично,
већ постоје сасвим јасни комерцијални и политички циљеви и интереси чијим остваривањем све све више преузима контрола над човеком. Погледајмо како рецимо
контролишу интернет (алатима ВИ!) у циљу стварања "отвореног друштва". Ауторитет који подстиче развој у том смислу може на крају изгубити контролу или је чак свесно (вољом малог боја људи) предати у руке нечему што је човек створио. Али Бостром се скоро уопште не бави политиком, подразумевајући многе ствари, од којих неке заиста стоје...
Друга ствар, макар једно поглавље, додатак рецимо, требало је бити посвећено научној фантастици и начину на који он види свет. Кренимо (није сама тема књиге, али јесте предуслов за оно чим се Бостром бави) на саму идеју вештачког живота, коју нам даје први писац СФ-а Мери Шели у свом чувеном Франкенштајну. (Иначе, применом "родне равноправности" на којој се сада инсистира, не бих Мери Шели могао одати једноставно признање - ако кажем да је она прва
списатељица, то подразумева да је прва жена која је писала СФ, не прва међу женама и мушкарцима, што она званично јесте). Терминатор можда стварно није добра тема, али
Дина свакако јесте. Стварно ми је чудно како се ово генијално дело Френка Херберта просто избегава код оно мало футуролошких разматрања које сам прочитао. Да ли је људи не разумеју (њен значај) или просто не смеју да се подухвате њених филозофских разматрања?! Негде горе је линк на моје виђење
Златног доба Џона Рајта, такође једно значајно виђење технолошке (анти?)утопије, како то изгледа кад човечанство технологијом оствари своје снове (чак и ако задржи контролу над надмоћним интелигенцијама)... Матрикс да и не помињемо, док чекамо четврти наставак.
Још би се могло рећи нешто о преводу (издање Академске књиге). Добро је што се уместо речи "агент" користи делатник, што је објашњено у фусноти, јер реч агент у српском обично има друга значења. Али има неколико проблема, рецимо бутстраповање не само да рогобатно звучи, него није баш ни јасно шта је, касније се види из контекста да је то самоунапређивање, па је могло бити тако и преведено.
Иван Вукадиновић
п.с. Некако паралелно са читањем, почех најзад да гледам серију Westworld, што баш и није тема, јер је далеко од суперинтелигенције, но можемо видети како и ВИ која је створена да нам робује може правити проблеме.
Hvala!
ОдговориИзбриши