Një rrjet nervor ka “lexuar” të gjithë librat e George R. R. Martin dhe ka “shkruajtur” vazhdimin. Mes vrasjeve të reja, ringjalljeve dhe goditjeve të befta, ja se çfarë ka parashikuar
Fansat e serisë televizive “Game of Thrones” kanë përjetuar epilogun e sezonit të shtatë. Kapitulli tjetër i serisë së bazuar në një nga librat e George R.R. Martin do të mbërrijë në 2019, pas botimit të “Erërat e Dimrit”, libri i gjashtë i sagës “Një këngë e akullit dhe zjarrit”. Padyshim që është shumë, shumë kohë për të pritur. Për këtë arsye është kryer një eksperiment i çuditshëm: vendosja e inteligjencës artificiale në shërbim të fansave dhe përpjekja për të parashikuar, me anë të një algoritmi të veçantë, përmbajtjen e librit të gjashtë.
Jamie vret Cersein
Pra, ai që është bërë i njohur si një rrjet nervor përsëritës, ka “tretur” për herë të parë mbi 5 mijë faqet e pesë vëllimeve të Martin të publikuara deri më tani dhe, nën mbikëqyrjen e inxhinierit të aplikacionit, Zack Thoutt, ka përdorur një algoritëm për të shkruar paraprakisht vëllimin e gjashtë. Cilat janë profecitë e tij?
Jamie do të përfundojë duke vrarë Cersein, Jon Snou do të ngasë një dragua dhe Varys do të helmojë Danaerysin. “Jamie vrau Cersein dhe ishte i ftohtë dhe mbushur me fjalë …”, kështu fillon kapitulli i pestë i këtij simulimi të vëllimit të gjashtë. Çdo kapitull fillon me emrin e një personazhi, ashtu si librat e Martinit.
Por nëse deri tani kemi parashikuar diçka të parashikueshme në fakt, Inteligjenca Artificiale ofron gjithashtu goditje të befta. Për shembull, në kapitullin e parë të shkruar nga algoritmi, që shihet nga perspektiva e Tyrionit, Sansa rezulton të jetë një Baratheon. Një personazh i ri, pjesërisht i ngjashëm me një pirat me emrin Greenbeard, është prezantuar gjithashtu.
Rrjeti nervor i përsëritur
Rrjetet nervore përfaqësojnë një kategori algoritmeve të të mësuarit të makinerive, të frymëzuar nga aftësia e trurit të njeriut për të mësuar përmendësh, për të ndjekur udhëzimet dhe madje për të mësuar nga përvojat e kaluara. Një rrjet nervor i përsëritur i përket kësaj familjeje të algoritmeve dhe është veçanërisht i përshtatshëm për përpunimin e sekuencave të gjata të të dhënave, si në rastin e teksteve të përmbajtura në katër librat e Martinit, në serinë “Një këngë e akullit dhe zjarrit”.
“Natyrisht, sistemi nuk është i përsosur,” rrëfehet Thoutt “nuk krijon një histori afatgjatë dhe gramatika lë për të dëshiruar, por rrjeti është në gjendje të mësojë bazat e anglishtes dhe strukturën e stilit të George RR Martin, në autonomi të plotë”.
Gabimet e parashikimit
Në teori, algoritmi i Thoutt duhet të jetë në gjendje të krijojë një gjurmë realiste të veprës ekzistuese të Martinit bazuar në të kaluarën, por në praktikë ndonjëherë struktura është e ngathët dhe ekzistojnë kufizime të tjera, siç është paraqitja e personazheve që tashmë kanë vdekur, si Ned Stark. “Kjo është për shkak se nuk ka model të përsosur ende dhe unë mendoj se kjo është një gjë e mirë: nëse do të ekzistonte, shkrimtarët do të ishin në telashe”, komenton Thoutt.
Arsyeja pse algoritmi bën gabime është, dhe kjo tingëllon e habitshme, se librat e mëparshëm janë shumë të shkurtër. Megjithëse madhësia e tyre duket e madhe për një sy njerëzor, në fakt, për një rrjet nervor, pesë librat e Martinit përfaqësojnë një sasi shumë të kufizuar të dhënash, shumë pak për të mësuar se si të shkruajnë një vazhdim pa të meta. Përveç kësaj, ka shumë fjalë që shfaqen vetëm një herë, gjë që e bën shumë të vështirë për rrjetin të mësojë një skemë. Librat idealë, në këtë kuptim, sipas Thoutt do të ishin 100 herë më të gjatë se ato të Martinit dhe me një fjalor në nivelin e një fëmije. Megjithëse, këto libra vështirë se do të kishin sukses në veprën e Martinit. / Wired – Bota.al