Si ka përparuar Inteligjenca Artificiale?

Si u bë Inteligjenca Artificiale nga një shpresë e humbur në teknologjinë më premtuese në botë, shkruan The Economist

Si ka përparuar Inteligjenca Artificiale?

Gjatë verës së vitit 1956, një grup i vogël por i famshëm studiuesish, u mblodh në Kolegjin Dartmouth në New Hampshire.

Ai përfshinte Claude Shannon, krijuesin e teorisë së informacionit dhe Herb Simon, i vetmi person që ka fituar çmimin Nobel Përkujtimor në Shkencat Ekonomike të dhënë nga Akademia Mbretërore Suedeze e Shkencave, dhe Çmimin Turing të dhënë nga Shoqata për Makineri Kompjuterike.

Ata ishin thirrur nga një studiues i ri, John McCarthy, i cili donte të bisedonte se “si mund t’i bënin makineritë të përdorin gjuhën, të formonin abstraksione dhe koncepte” dhe “të zgjidhnin lloje të ndryshme problemesh si njerëzit”.

Kjo ishte mbledhja e parë akademike kushtuar asaj që McCarthy e quajti “inteligjencë artificiale”. Për 60 vitet e ardhshme, në këtë fushë, do të bëheshin përparime që nuk ishin në të njëjtin nivel me ambiciet e studiuesve.

Takimi në kolegjin Dartmouth nuk shënoi fillimin e kërkimit shkencor për makineritë që mund të mendonin si njerëzit. Alan Turing, pas të cilit është emëruar çmimi Turing, ishte skeptik për këtë ide; po ashtu edhe John von Neumann. Deri në vitin 1956, kishte një sërë qasjesh për këtë çështje.

Historianët mendojnë se një nga arsyet pse McCarthy krijoi termin “inteligjencë artificiale” për projektin e tij, ishte se ky emër i përfshinte të gjitha, duke mbajtur të hapur pyetjen se cila mund të ishte qasja më e mirë.

Disa studiues pëlqenin sistemet që ndërthurnin fakte me aksioma rreth botës, si ato në fushën e gjeometrisë dhe logjikës simbolike, në mënyrë që të nxirren përgjigjet e duhura.

Të tjerë parapëlqenin sisteme ndërtimi ku probabiliteti i diçkaje varej nga probabilitetet e përditësuara të shumë gjërave të tjera.

Në dekadat në vijim, pati shumë debate intelektuale dhe argumente mbi këtë temë, por në vitet 1980, u arrit një marrëveshje e përgjithshme mbi rrugën që duhej ndjekur: “sistemet e ekspertëve” të cilët përdornin logjikën simbolike për të kapur dhe zbatuar njohuritë më të mira njerëzore.

Qeveria japoneze në veçanti i mbështeti financiarisht sisteme të tilla, duke paguar për pajisjet që ato mund të kishin nevojë.

Por në pjesën më të madhe, këto sisteme nuk e përballuan dot rrëmujën e botës reale. Nga fundi i viteve 1980, reputacioni i inteligjencës artificiale kishte rënë. Studiuesit filluan ta shmangnin termin.

Bumi i sotëm lindi pikërisht nga ata pak këmbëngulës që kishin mbetur. Pasi në vitet 1940 u kuptua më thellësisht se si funksiononin qelizat e trurit, shkencëtarët filluan të pyesnin nëse edhe makineritë mund të lidheshin në të njëjtën mënyrë si neuronet.

Në një tru njeriu, neuronet janë të lidhur në një mënyrë që lejojnë që veprimtaria në një neuron, të nxisë ose të shtypë veprimtarinë në një tjetër.

Kjo bën që një neuron të varet nga ajo që po bëjnë neuronet e tjera të lidhura me të.

Në përpjekjen e parë për ta rikrijuar këtë model në laborator (nga Marvin Minsky, një pjesëmarrës i mbledhjes në kolegjin Dartmouth), u përdorën pajisje për të imituar rrjetet e neuroneve. Që atëherë, shtresat e neuroneve të ndërlidhura, janë simuluar në softuer.

Këto rrjete nervore artificiale nuk janë programuar duke përdorur rregulla të qarta. Ata në fakt “mësojnë” duke u ekspozuar ndaj shumë shembujve.

Gjatë këtij trajnimi, forca e lidhjeve ndërmjet neuroneve rregullohet herë pas here në mënyrë që një hyrje e caktuar e një të dhëne, të prodhojë një dalje të përshtatshme.

Vetë Minsky e braktisi idenë, por të tjerët e çuan përpara. Në fillim të viteve 1990, rrjetet nervore ishin trajnuar për të ndihmuar me renditjen, duke njohur numrat e shkruar me dorë.

Studiuesit menduan se shtimi i më shumë shtresave të neuroneve, mund të lejonte arritje më të sofistikuara. Por e meta ishte se sistemet funksiononin shumë më ngadalë.

Një lloj i ri i harduerit kompjuterik siguroi një rrugëdalje nga problemi. Potenciali i tij u tregua haptazi në vitin 2009, kur studiuesit në Universitetin Stanford, rritën me 70 herë shpejtësinë me të cilën mund të funksiononte një rrjet nervor artificial, duke përdorur një kompjuter lojërash në dhomën e tyre të konviktit.

Kjo ishte e mundur sepse, ashtu si “njësia qendrore e përpunimit” (CPU) që gjendet në të gjithë kompjuterët, edhe ky rrjet, kishte një “njësi të përpunimit grafik” (GPU) për të krijuar një botë lojërash në ekran. Dhe GPU ishte modeluar në një mënyrë të përshtatshme për të lejuar zbatimin e kodit të rrjetit nervor.

Lidhja e këtij hardueri me algoritme më efikase të trajnimit, nënkuptonte se rrjetet me miliona lidhje, mund të trajnoheshin në një kohë të arsyeshme.

Gjithashtu rrjetet nervore mund të trajtonin inpute më të mëdha dhe më e rëndësishmja, atyre mund t’u jepeshin më shumë shtresa. Këto rrjete “më të thella” dolën shumë më të aftë.

“Të mësuarit e thellë”

Fuqia e kësaj qasjeje të re, e cila u bë e njohur si “të mësuarit e thellë”, u bë e dukshme nga ImageNet në vitin 2012.

Sistemet e njohjes së imazhit u pajisën me një bazë të dhënash me më shumë se një milion skedarë imazhi. Për çdo fjalë të caktuar, si “qen” ose “mace”, baza e të dhënave përmbante disa qindra foto.

Duke përdorur këta shembuj, sistemet e njohjes së imazheve u trajnuan, për të “përkthyer” input-et në formën e imazheve, në output-e në formën e përshkrimeve me një fjalë.

Më pas, sistemet nisën të prodhonin përshkrime të tilla edhe kur ushqeheshin me imazhe të papara më parë.

Në vitin 2012, një ekip i udhëhequr nga Geoff Hinton, atëherë në Universitetin e Torontos, përdori “të mësuarit e thellë” për të arritur një saktësi prej 85%. Ky ishte një përparim i madh.

Deri në vitin 2015, pothuajse të gjithë studiuesit në fushën e njohjes së imazheve, po përdornin “të mësuarit e thellë” dhe saktësia kishte arritur në 96%, më mirë se rezultati mesatar njerëzor.

Kjo metodë po zbatohej gjithashtu për një sërë “problemesh të tjera… të rezervuara për njerëzit”, që kryesisht kishin të bënin me njohjen e tiparit të një subjekti, në një subjekt tjetër: për shembull, njohja e të folurit, njohja e fytyrës dhe përkthimi.

Në të gjitha këto aplikacione, sasia e madhe e të dhënave që mund të merrej përmes internetit, ishte jetike për arritjen e suksesit. Për më tepër, u hap edhe mundësia e tregjeve të mëdha, falë numrit të madh të njerëzve që përdornin internetin.

Dhe sa më të mëdha (dmth., sa më të thella) të bëheshin rrjetet dhe sa më shumë të dhëna trajnimi t’u jepeshin, aq më shumë do të përmirësohej performanca e tyre.

“Të mësuarit e thellë” u zbatua shpejt në të gjitha llojet e produkteve dhe shërbimeve të reja.

U shfaqën pajisje të drejtuara nga zëra, si Alexa e Amazon. Shërbimet e transkriptimit në internet u bënë të dobishme. Browser-ët e internetit mundësonin përkthime automatike. Kështu, inteligjenca artificiale filloi të dukej e dobishme dhe u bë pjesë e jetës së përditshme.

Në vitin 2017, një ndryshim cilësor iu shtua përfitimeve sasiore të mundësuara nga më shumë fuqi kompjuterike dhe më shumë të dhëna: një mënyrë e re e rregullimit të lidhjeve midis neuroneve, e quajtur transformator.

Transformatorët u mundësojnë rrjeteve nervore që të ruajnë gjurmët e modeleve në hyrjen e tyre, edhe nëse elementët e modeleve nuk janë të ngjashme. Kjo i mundëson atyre që t’i kushtojnë “vëmendje” veçorive në të dhëna.

Transformatorët bënë që rrjetet të kuptonin më mirë kontekstin, që i bëri ata të përshtatshëm për një teknikë të re të quajtur “të mësuarit e vetë-mbikëqyrur”.

Sipas kësaj teknike, për ta shpjeguar në vija të trasha, disa fjalë fshihen rastësisht gjatë trajnimit dhe modeli mëson vetë që të plotësojë kandidatin më të mundshëm për të plotësuar boshllëkun.

Për shkak se të dhënat e trajnimit nuk duhet të etiketohen paraprakisht, modele të tilla mund të trajnohen duke përdorur miliarda fjalë nga tekste të papërpunuara, të marra nga interneti.

Modelet e mëdha gjuhësore të mbështetura në transformatorë (LLM), filluan të tërhiqnin vëmendje më të gjerë në vitin 2019, kur një model i quajtur GPT-2 u publikua nga firma startup e inteligjencës artificiale OpenAI.

Këto modele të mëdha gjuhësore ishin të aftë të shpalosnin sjellje për të cilat nuk ishin trajnuar në mënyrë të posaçme.

Përthithja e sasive të mëdha të teksteve gjuhësore, jo vetëm që i bëri ata jashtëzakonisht të aftë në detyrat gjuhësore si përmbledhja ose përkthimi, por edhe në gjëra si aritmetika e thjeshtë dhe shkrimi i softuerit, të cilat ishin aftësi të nënkuptuara dhe jo të drejtpërdrejta në të dhënat e trajnimit. Fatkeqësisht, me këto aftësi të reja, vinte edhe vetia për të bërë paragjykime shoqërore duke u nisur nga të dhënat.

Në nëntor 2022, një model më i madh i krijuar nga firma OpenAI, i quajtur GPT-3.5, u paraqit publikisht në formën e një chatbot-i. Çdokush me qasje në internet, mund të bënte një kërkesë dhe të merrte një përgjigje.

Asnjë produkt konsumi nuk është bërë kaq popullor, në një kohë kaq të shpejtë. Brenda disa javësh, ChatGPT filloi të krijonte gjithçka, nga esetë e studentëve, deri tek kodet kompjuterike. Inteligjenca artificiale kishte bërë një tjetër hap të madh përpara.

Aty ku grupi i parë i produkteve të fuqizuara nga inteligjenca artificiale, mbështetej në njohje, në këtë rast, mbështetej në krijim.

Modelet e “të mësuarit të thellë” si Stable Diffusion dhe DALL-E, përdorën një teknikë të quajtur difuzion për të kthyer kërkesat e tekstit në imazhe. Modele të tjera mund të prodhojnë video, fjalim ose muzikë çuditërisht realiste.

Përparimi nuk është vetëm teknologjik. Ndryshoi edhe vetë mënyra e bërjes së gjërave. ChatGPT dhe rivalët si Gemini (nga Google) dhe Claude (nga Anthropic, i themeluar nga studiues që punonin më parë në firmën OpenAI), prodhojnë rezultate nga llogaritjet, ashtu siç bëjnë sistemet e tjera që janë trajnuar me qasjen e “të mësuarit të thellë”.

Por ata ju përgjigjen kërkesave duke krijuar një përgjigje të re, gjë që i bën të ndryshëm nga softueri që njeh fytyrat, merr diktimin ose përkthen menutë.

Këto sisteme të reja duket se “përdorin gjuhën” dhe “formojnë abstraksione”, ashtu siç kishte shpresuar McCarthy në të kaluarën./Monitor

EMISIONET