logo
logo
logo

ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА НЕ РАЗМИСЛУВА КАКО ЧОВЕК – И тоа е сериозен проблем

Vecer | 08.04.2025

ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА НЕ РАЗМИСЛУВА КАКО ЧОВЕК – И тоа е сериозен проблем

Во последните неколку години, вештачката интелигенција (AI) повеќе не е само техничка алатка во рацете на инженерите - таа е сè поприсутна во процесите на донесување одлуки кои директно влијаат на човечките животи. Од медицински дијагнози, преку судски пресуди, до оценување на студентите и избор на кандидати за работа - донесува одлуки кои можат да бидат клучни за некого. Но, колку е сигурна?

Една нова студија објавена во февруари 2025 година во угледното списание Transactions on Machine Learning Research им носи студен туш на оние кои се надеваат дека вештачката интелигенција наскоро ќе достигне (или дури и ќе го надмине) човечкото расудување.

Истражувачите откриле дека вештачката интелигенција, иако исклучително успешна во препознавањето на шаблоните, има сериозен проблем со разбирањето на апстрактните правила, препознавањето на аналогии и генерализирањето - способности кои се природни за луѓето, пренесува Индекс.

Вештачката интелигенција гледа шема, човекот гледа значење

Авторите на студијата објаснуваат дека големите јазични модели, како што е GPT, се покажале добро на голем број тестови за расудување, вклучувајќи ги и оние кои го испитуваат аналогното размислување. Сепак, се поставува прашањето - дали навистина разбираат што прават или само успешно ја „имитираат“ логиката врз основа на огромна количина на претходно научени податоци?

Со други зборови - додека луѓето го разбираат правилото зад проблемот, моделите со вештачка интелигенција често препознаваат само сличности со ситуации од нивната база на податоци. И тоа, како што пишува MIT Technology Review, е фундаменталната разлика помеѓу човекот и машината.

Тестирање во три домени: букви, бројки и приказни

За да тестираат како вештачката интелигенција функционира во апстрактното размислување, истражувачите тестираа модели на GPT во три различни области:

Аналогии со низи букви

Нумерички матрици (шеми на броеви)

Наративни аналогии (контекстуални приказни)

Задачите ги решавале и луѓето и вештачката интелигенција, но во секој случај е направен чекор понатаму: покрај стандардните тестови, беа користени и нивните модифицирани верзии, кои се доволно различни за да бараат поапстрактно расудување. Идејата е јасна - ако вештачката интелигенција навистина ги разбира принципите, треба да може да се справи со варијации на задачи што не наликуваат на оние на кои е обучен.

Резултатите, сепак, беа поразителни за вештачката интелигенција.

Во задачите со низи букви повеќето луѓе ја препознаваат шемата без проблем и одговараат точно.

Таму биле успешни и моделите GPT.

Во нешто посложени примери луѓето ја препознале логиката а тука заостанува вештачката интелигенција.

Како што задачите станале посложени, луѓето исто така имале потешкотии, но нивната способност да навигираат низ непознатото сè уште била значително поголема од онаа што ја покажале моделите со вештачка интелигенција.

Слично и во тестовите со матрица на броеви - вештачката интелигенција е добра кога е позната шемата, но многу помалку успешна кога требада ја препознае логиката во варијациите на задачата.

Најголемите разлики се забележани во наративните аналогии - ситуации во кои е неопходно да се препознае суштинската врска помеѓу приказните, ликовите и нивните односи. Ова е местото каде што вештачката интелигенција покажува слабости: чувствителна на редоследот на одговорите (што не влијае на луѓето) и има тенденција да парафразира наместо да дава јасен одговор.

Вештачката интелигенција паѓа таму каде што луѓето напредуваат

Во реалните животни ситуации, способноста за апстрактно размислување е најважна. Судијата, на пример, не донесува одлука само врз основа на преседан - тој мора да препознае дали правило од претходниот случај може да се примени во нова ситуација. Лекарот мора да разбере дека истиот симптом може да укаже на сосема различни болести, во зависност од контекстот.

Студијата покажува дека моделите како GPT имаат низок капацитет за таканаречено учење со нула – способност да се направи правилен заклучок без претходен пример од истата категорија. Со други зборови, ако вештачката интелигенција досега не видела нешто слично, постои голема веројатност дека тоа ќе биде погрешно.

Во областа на здравството, тоа може да значи погрешна дијагноза или третман. Во судството - погрешна пресуда. Во образованието - неправедно оценување.

Проблемот не е во знаењето - туку во начинот на размислување, како што истакна една од авторките на студијата, д-р Лаура Луис.

„Проблемот не е во количината на податоци, туку во тоа како се користат. Луѓето знаат кога правилото е валидно, а кога не е - моделите не“, вели д-р Луис.

Системите за вештачка интелигенција денес се одлични во препознавањето на шаблони - колку повеќе податоци, толку подобро, се наведува понатаму во студијата. Генерализацијата, способноста да се извлечат општи правила од конкретни случаи и да се применат во нови ситуации, сепак, останува нивна најголема слабост.

Клучната порака на студијата е дека вештачката интелигенција не треба да се оценува само според точноста на одговорите, туку и според робусноста и стабилноста на логиката што ја користи. Ако одговорот се менува во зависност од редоследот на прашањето, начинот на кој е формулиран или контекстот во кој е даден - тоа не е сигурен систем за донесување сериозни одлуки.

Затоа оние кои користат вештачка интелигенција, тие треба да разберат не само што може да направи вештачката интелигенција, туку и каде се нејзините граници.

„Треба да престанеме да очекуваме вештачката интелигенција да размислува како човек. Наместо тоа, треба да научиме како таа заклучува и каде завршува нејзината моќ на разбирање“, заклучува д-р Луис.

Без човечки надзор, вештачката интелигенција може да изгледа како да знае што прави - но, во основа, може да донесе погрешни одлуки.

© Vecer.mk, правата за текстот се на редакцијата

TailoredCV
logo

Vecer.mk е прв македонски информативен портал, основан во 2004 година.

2004-2025 © Вечер, сите права задржани

Сите содржини и објави на vecer.mk се авторско право на редакцијата. Делумно или целосно преземање не е дозволено.

Develop & Design MAKSMEDIA LTD Skopje Copyright © 2004-2025. Vecer.mk