Стварни трошкови вештачке интелигенције према Кејт Крофорд: Невоље техносолуционизма štampaj
среда, 24. сеп 2025, 09:31 -> 16:23
Мада се представља као чиста технологија, вештачка интелигенција је планетарна структура која зависи од огромне количине фосилних горива, минерала, јефтиног рада и личних података. Управо због тога, али и капитала потребног да би се развила, вештачка интелигенција није само алат већ и снажна политичка, економска и културна сила која би, без снажне регулације, затечене неједнакости продубила.
„Кад технологија предводи, прате је проблеми“, наслов је прошлогодишњег чланка двоје филозофа, Лотје Сифелс и Тамар Шарон, о јавној апликацији CoronaMelder, дизајнираној у Холандији априла 2020. за аутоматизацију бележења и рано обавештавање корисника о контакту са зараженим особама. Након месец дана, пандемија се разбуктала а коришћење апликације закомпликовало. Јавне установе су, уместо апликацијом, почеле да се баве редефинисањем почетног проблема, кршећи принципе демократског одлучивања како би га прилагодиле ономе што апликација може да уради.
То је, према ауторкама, био пример техносолуционизма – некритичког увођења интрузивне технологије као универзалног решења за друштвене проблеме. Према Кембриџовом речнику, техносолуционизам је „идеја да се сви проблеми могу решити технологијом, иако истина може бити сложенија“. Овај термин има негативну конотацију, а корен читаве појаве критичари виде у самој капиталистичкој модерности, усмереној на економски раст.
Да ли је технологија лек за све
Популарна прича о историји капитализма почиње открићем парне машине у 18. веку и наставља се низом технолошких иновација које имамо данас. Имплицитна поука је да је, уз праву технологију, економски раст остварив такорећи ни из чега. Према мејнстрим економској мисли, најважнији су знање и институције. Према екофеминистичкој критици, нема раста ни из чега већ занемаривања његових трошкова – од колонијалног насиља до деградације природе.
Претходно је повучена линија између људи и природе, при чему су „природом“ сматране и жене и небелачки народи. У име рационалности, науке и технологије, земљиште је постало својина, жива бића ствари а екосистеми ресурси. Ту је кључна технологија, која повећава продуктивност рада и капитала, то јест капацитет да се производи више и брже. Економски раст и јесте убрзање производње у јединици времена.
Кад се технологија помеша са дискурсом раста, настаје прича о технолошком развоју као кључу људског благостања. Технологија ће решити све: оптимизовати људско одлучивање (вештачка интелигенција), преокренути климатске промене (геоинжењеринг) и нахранити „пренасељену“ планету (агроиндустрија). Али проблем техносолуционизма је у томе што су сложени проблеми превасходно политички, а не технички.
Политичка решења не решавају техничке проблеме (дати неисправан рачунар ономе коме рачунар највише треба), нити технолошка решења решавају политичке (нова метода оправке рачунара не гарантује да ће рачунар добити онај коме највише треба). Зато је технологија неодвојива од питања правде, па главни критеријум одлучивања о њој не сме бити профит.
Прогутана природа и потцењени рад
Шта се развија, за кога и ко о томе одлучује – пита се Кејт Крофорд у књизи „Атлас вештачке интелигенције“. Она оспорава пожељну представу чисте технологије и тврди да вештачка интелигенција није ни вештачка, ни интелигентна, ни чиста. То је екстрактивна индустрија зависна од експлоатације енергије, минерала, јефтиног рада и великог броја података.
Већ поднаслов књиге („моћ, политика и планетарни трошкови“) сврстава Крофорд у критичку линију истраживача високе технологије, познату по радовима Јевгенија Морозова, Шошане Зубоф и других. Они истичу скривене трошкове и забрињавајуће импликације вештачке интелигенције, насупрот њеним благим (Харари) и усхићеним (Курцвејл) бранитељима.
Када је реч о природним ресурсима, Крофорд пише о седамнаест ретких елемената без којих нема телефона, лаптопова и других делова инфраструктуре вештачке интелигенције. Приликом њихове екстракције, постоји катастрофалан однос ископане земље и употребљвих материјала. При добијању диспрозијума и тербијума, свега 0,2% ископане глине садржи драгоцене елементе. То значи да 99,8% земље постаје јаловина штетна по околину. Ради се и о води: само у 2024. години Гуглови дата центри потрошили су близу 23 милијарде литара воде, што је око трећине годишње потрошње Турске.
Дубоке неједнакости испољавају се у потрошњи – скупе електронске направе купује и мења углавном богатија мањина света, док гро еколошке штете трпи сиромашна већина – али и у осталим фазама. У рудницима основних сировина рад је дословно ропски, а ланци снабдевања нетранспарентни, што отежава производњу „неконфликтних“ компоненти. „Сировине се 'перу' кроз толико велики број фирми да је праћење њиховог порекла немогуће – или бар тако кажу произвођачи крајњих производа, што им омогућава да веродостојно поричу експлоатацију од које профитирају. Еколошко незнање и свесно жмурење пред израбљивањем су предуслов одржања економије података“, пише Крофорд.
Разговор о системима вештачке интелигенције се ретко дотиче тога колико је лоше плаћених радника потребно за њихову изградњу, одржавање и испитивање. У AI моделе је уграђено хиљаде сати рада на изузетно репетитивним микро-задатацима: од изнурујућег обележавања података за обучавање до психолошки трауматичног прегледања сумњивог садржаја. У случају аутономних возила или дигиталних личних асистената, радници дословно морају да глуме вештачку интелигенцију.
Компанија X.AI, која управља сервисом Grok, тврдила је да њена асистенткиња Amy може да заказује састанке и обавља разне свакодневне задатке. Ипак, открило се да то не ради „она“ већ унајмљени радници који у дугим сменама надгледају и исправљају поруке, анотирају мејлове и одржавају илузију да су услуге фирме аутоматизоване 24/7. „Одлазио сам кући потпуно отупљен, лишен сваке емоције“, рекао је један од запослених.
Својевремено је Међународна организација рада, анкетиравши 3500 микро-радника из 75 земаља који су радили на платформама попут Clickworker и Amazon Mechanical Turk, утврдила да многи од њих примају мање од локалног минималца, упркос високим квалификацијама. То што је наше корисничко искуство на интернету иоле пријатно, по свему судећи, није заслуга вештачке интелигенције већ правог, али потцењеног рада.
Ова обмана, према Крофорд, има идеолошку функцију. „Лажна аутоматизација не замењује људски рад већ га премешта и распршује у времену и простору. Тако се веза између рада и вредности још више мути, а сами радници још више отуђују једни од других и од резултата свог рада“, истиче она.
Идеологија података
Не ради се само о радницима, јер драматично расте прикупљање дигиталних података које остављамо сви. Текстови, гласовни и видео снимци, фотографије начињене у јавном простору или од стране државних установа – основа су за грађење смисла и вршење основних операција AI уређаја. Прикупљање података џиновских размера је постало толико фундаментално да га више нико не доводи у питање.
Крофорд пише о узнемирујућој бази полицијских фотографија начињених након хапшења и привођења осумњичених, које преузима и обрађује амерички Национални институт за стандарде и технологију. „Не ради се само о ужасном патосу самих слика, нити о инвазији приватности јер они не могу да одбију фотографисање“, наводи она. Ради се о томе да овакве базе података наговештавају немилосрдни прагматизам технолошког сектора: логику по којој је све податак којим се може слободно служити.
Компаније не маре за контекст настанка података, унапред се правдајући развојем „рачунарске интелигенције“, „дубоког учења“ и слично. Раних двехиљадитих подаци су постали сировина, што је проф. Зубоф видела као рађање надзорног капитализма.
Крофорд наводи да одговорни за састављање скупова података – они које Зубоф зове надзорним капиталистима – претпостављају да им садржај интернета безгранично припада „Мисле да су изнад потребе за одобрењем или етичком рефлексијом“, појашњава она. Подаци се представљају као нешто што се може слободно користити. То рађа морални императив прикупљања без обзира на последице, али и тржишни – ако једна фирма неће, конкуренти хоће.
Шта се крије иза уверења да је податак све што се може уграбити? Саме флоскуле о „рударењу података“ или томе да су подаци „нова нафта“ удаљавају појам податка од нечег личног, подложног индивидуалној контроли. Реторичке финте скривају вековну праксу свођења на ствари: ако природа више није жива већ фонд бесплатних залиха, онда ни подаци нису лични већ исплатива инвестиција.
„Рећи да су подаци 'нова нафта' не значи само истаћи њихову исплативост, већ и сакрити проблеме фосилне индустрије: од уговорног ропства, геополитичких сукоба, еколошке девастације и других дугорочних последица“, наводи Крофорд.
Уосталом, посматрање података као „природног ресурса“ који само чека да буде „откривен“ део је истог колонијалног обрасца. Тај образац – од туђе земље (terra nullius) до туђих података (cookies) – појачан је неолибералним погледом на тржиште као на главно мерило вредности. Управо је то срж онога што Крофорд зове идеологијом података: „Када су подаци пуки облик капитала, онда је све оправдано и сви простори се могу подвргнути све инвазивнијим средствима датификације“, закључује она.
Класификација је моћ
Опасна је и пристрасност AI система, што за Крофорд није грешка, већ одлика саме класификације. Када се подаци из света прикупе, измере, обележе и сортирају, постају несигуран терен за градњу система који се на њима обучавају. То показују стотине примера дискриминаторних резултата: од полне пристрасности у Епловим алгоритмима за процену кредитне способности, преко расизма у COMPAS софтверу који амерички судови користе за процену криминалног ризика, мизогиног речника који усвајају чет-ботови до огласа за високо плаћене послове који се чешће приказују мушкарцима него женама.
„Креирати тренажни скуп података значи узети скоро бесконачно сложен и разнолик свет и угурати га у таксономије, што захтева инхерентно политичке, културне и друштвене изборе“, наводи Крофорд. А када се пристрасности открију, компаније их своде на технички проблем података, који потом реше не би ли изјавили да је њихов сервис сада „праведнији“. Али суштина није у томе, већ начину конструкције самог знања: изабране технике класификације могу постати основ за натурализацију пристрасности и хијерархија.
Сексистички, расистички и други спорни погледи на свет могу, у контексту вештачке интелигенције, погоршати неједнакости. Сама неједнакост није ништа ново – одувек је обликовала приступ ресурсима и могућностима. Проблем је, међутим, што неједнак приступ ресурсима утиче на стварање нових података, који се онда уграђују у техничке системе за класификацију и препознавање образаца. Ако ти системи постану основ за рад институција, неједнакости се нормализују – под маском техничке неутралности.
Али нема техничке неутралности, закључује Крофорд: AI системи нису аутономни, нису рационални и нису способни да сазнају ишта без ширег скупа политичких и друштвених инфраструктура. Данас оне не спречавају раст технократске моћи Амазона, Гугла, Палантира и осталих компанија, нити опасност да та моћ постане политичка – напротив.
Вештачка интелигенција није пука алатка већ политичка, економска и културна сила која би, без снажне регулације, продубила затечене неједнакости. Суочити се с тим значи разумети интеракцију између AI система и података, радника, природе и људи на чије животе ће њихова употреба да утиче, па спрам тога одлучити када вештачку интелигенцију не треба користити.
Својевремено је Жак Елул писао да се технологија развија само због тога што се развија, без потребе за другим разлозима или мотивима. Нешто раније Хана Арент је упозоравала да ћемо ми, земаљска бића са претензијама на космички значај, постати неспособни да схватимо и артукулишемо ствари које смо у стању да чинимо. Обоје су мислили исто: патимо од моралног заостајања.