Tech

Mënyra se si neuronet funksionojnë në të vërtetë me magjinë e tyre vetëm tani po zbërthehet

Mënyra se si neuronet funksionojnë në të vërtetë

Një neuron është diçka e bukur. Që kur Santiago Ramón y Cajal i ngjyrosi me nitrat argjendi, për t'i bërë të dukshme nën mikroskopët e viteve 1880, degëzimet e tyre kanë ndezur imagjinatën shkencore. Ramón y Cajal i quajti ato fluturat e shpirtit.

Mënyra se si neuronet funksionojnë në të vërtetë

Këto degëzime, dendritë nga një duzinë për të mbledhur sinjale hyrëse, të quajtura potenciale veprimi, nga neuronet e tjera dhe një akson i vetëm për të përcjellë mençurinë e përmbledhur të atyre sinjaleve në formën e një potenciali tjetër veprimi, i kthejnë neuronet në pjesë të strukturave shumë më të mëdha të njohura si rrjete nervore. Inxhinierët tani përdorin imazhe të tyre për të krijuar atë që ata janë të kënaqur ta quajnë inteligjencë artificiale, megjithëse është një hije e zbehtë e gjësë reale.

Mënyra se si neuronet funksionojnë në të vërtetë me magjinë e tyre vetëm tani po zbërthehet. Një përfundim është se secili prej tyre është një procesor informacioni po aq i fuqishëm sa një rrjet nervor artificial me përmasa të drejta. Kjo ka implikime jo vetëm për të mësuar se si funksionon truri dhe se si ata gabojnë, por edhe për hartimin e versioneve artificiale që ngjajnë më shumë me llojin natyror.

Modeli i parë i neuronit i miratuar gjerësisht, i propozuar në formën e tij ekzistuese në 1957 nga Frank Rosenblatt, një psikolog amerikan, ishte perceptroni. Ky është një funksion matematikor që merr grupe shifrash binare (zero dhe njëshe) si hyrje. Ai i shumëzon këto me peshat numerike dhe më pas i shton produktet së bashku. Nëse rezultati tejkalon një vlerë të paracaktuar, perceptroni nxjerr një "një". Nëse jo, nxjerr një "zero".

Tortë me shtresa

Për të krijuar rrjete nervore artificiale, perceptronet janë të koduara si softuer. Ato janë të organizuara, duke folur logjikisht, në shtresa të ndërlidhura dhe rezultati trajnohet për të zgjidhur problemet nëpërmjet lidhjeve kthyese dhe ndërmjet shtresave. Këto sythe ndryshojnë vlerat e peshave dhe rrjedhimisht sjelljen e rrjetit. Sa më shumë shtresa, aq më i thellë është rrjeti. Rrjetet e thella nervore tani mbështesin gjithçka nga Google Translate te Siri i Apple.

E gjithë kjo imiton sesi potencialet e veprimit që mbërrijnë në kryqëzimet sinaptike midis aksoneve dhe dendriteve, nëpërmjet të cilave neuronet komunikojnë, mendohej se nxisin sinjale që më pas u kombinuan me njëri-tjetrin për të shkaktuar (ose jo) potenciale të reja veprimi në aksonin e qelizës marrëse. Prandaj është joshëse të shikosh neuronet si perceptrone fizike, me ndryshimin nga versionet kompjuterike që sinjalet e tyre barten nga jonet e natriumit, kaliumit dhe kalciumit që kalojnë membranat qelizore dhe jo nga një rrjedhë elektronesh. Dhe për dekada kaq shumë neuroshkencëtarë i panë ato.

Megjithatë, në fillim të viteve 2000, Panayiota Poirazi e Institutit të Biologjisë Molekulare dhe Bioteknologjisë në Heraklion, Greqi, filloi ta shikonte çështjen ndryshe. Ajo i imagjinonte vetë neuronet si rrjete perceptron. Në vitin 2003 ajo argumentoi se një rrjet i thjeshtë me dy shtresa mund të mjaftonte për t'i modeluar ato. Në vitin 2021, David Beniaguev i Universitetit Hebraik të Jerusalemit arriti në përfundimin se për neuronet kortikale njerëzore nevojiten të paktën pesë (dhe ndonjëherë edhe tetë) shtresa, secila me deri në 256 perceptrone.

Kjo do të thotë se shumë llogaritje duhet të zhvillohen brenda neuroneve individuale. Tani dihet se dendritet gjenerojnë potencialet e tyre të vogla të veprimit, të quajtura thumba dendritike. Këto vijnë në disa varietete: thumba kalciumi (të gjata dhe të ngadalta); thumba natriumi (të shkurtra dhe të shpejta); dhe pikat nmda (të shkaktuara nga një proces kimik i quajtur n-metil-d-aspartat). Së bashku, ata i lanë dendritët të kryejnë 15 nga 16 operacionet bazë të algjebrës së Bulit, një degë e matematikës që është baza e llogaritjes dixhitale. Këto operacione krahasojnë dy vlera hyrëse dhe si rezultat nxjerrin një të tretën. Disa janë vetëshpjeguese. Të tjerat, si nand, xnor dhe xor, më pak. Xor, në veçanti, është famëkeq. Ai jep një dalje zero vetëm kur hyrjet e tij janë të ndryshme. Në vitin 1969, dy shkencëtarë të shquar kompjuterikë, Marvin Minsky dhe Seymour Papert, vërtetuan se xor nuk mund të kryhet nga një perceptron i vetëm. Ky rezultat ngeci kërkimin e inteligjencës artificiale për një dekadë.

Kjo mendohej e vërtetë edhe për dendritët. Por në vitin 2020, puna nga Albert Gidon i Universitetit Humboldt, në Berlin, në të cilën ishte përfshirë edhe Dr Poirazi, gjeti një klasë të re të thumbave me bazë kalciumi që lejon xor. Pra, fakti që një dendrit i vetëm mund të tejkalojë një perceptron, sugjeron që një shtresë e tërë e llogaritjes komplekse po shkon jashtë syve të modeleve konvencionale të neuroneve. Kjo mund të ndihmojë në shpjegimin e performancës së jashtëzakonshme të trurit dhe dështimin e inteligjencës artificiale për ta riprodhuar atë.

Aksonet, gjithashtu, janë rivlerësuar. Potencialet e veprimit që ato mbartin dikur ishin parë nga shumë njerëz si analoge me gjithçka ose asgjë të një shifre binare. Shikoni nga afër, megjithatë dhe potencialet e veprimit ndryshojnë si në lartësi ashtu edhe në gjerësi.

Në vitin 2016, një grup nga Instituti Max Planck për Neuroshkencën, në Florida (një nga kampuset e pakta të organizatës jashtë atdheut të saj gjerman), tregoi se neuronet në sistemin nervor qendror rregullojnë në mënyrë aktive gjerësinë e potencialeve të tyre të veprimit. Vitin tjetër, një ekip nga Kolegji Dartmouth në Nju Hampshire zbuloi se ata në korteks rregullojnë në mënyrë aktive edhe lartësitë e tyre.

Edhe gjatësitë e intervaleve ndërmjet potencialeve të veprimit kanë rëndësi. Në maj 2021, Salman Qasim i Universitetit të Kolumbisë raportoi se neuronet në hipokampus, një pjesë e trurit të përfshirë në formimin e kujtesës, modulojnë kohën e shkrepjes së tyre për të koduar informacionin rreth lundrimit të trupit nëpër hapësirë. Dhe në gusht të atij viti Leila Reddy dhe Matthew Self nga Universiteti i Toulouse, në Francë, raportuan se neuronet e bëjnë këtë gjithashtu për të koduar rendin e ngjarjeve në kujtime.

E gjithë kjo ka implikime klinike. Në veçanti, ka prova në rritje se zhvillimi atipik i dendritit në fëmijëri dhe në moshën e hershme të rritur është i lidhur me autizmin, skizofreninë dhe epilepsinë. Ndërkohë, përkeqësimi i funksionit aksonal lidhet në mënyrë të ngjashme me psikozën në sklerozën e shumëfishtë, skizofreninë dhe çrregullimin bipolar. Këto zbulime informojnë zhvillimin e ilaçeve të reja. Për shembull, ketamina, e cila shkakton ndryshime strukturore afatgjatë në dendritë, po merr vëmendje si një trajtim për depresionin.

Arti i të harruarit

Sofistikimi i neuronit dhe pjesëve përbërëse të tij ka tërhequr gjithashtu vëmendjen e shkencëtarëve të kompjuterave. Në fillim të viteve 2010, rrjetet e thella nervore çuan në përmirësime të tilla dramatike në aftësitë e inteligjencës artificiale, saqë ekzistonte shqetësimi i vërtetë që njerëzit së shpejti do të duhej të luftonin me makina më të zgjuara se sa ishin. Pastaj, papritmas, përparimi ngeci.

Rrjetet e thella nervore kanë goditur tre pengesa. Së pari, shkencëtarët kompjuterikë zbuluan se sapo një rrjet të ketë mësuar një detyrë, ai përpiqet t'i transferojë ato aftësi në një të re, sado të ngjashme, pa rikualifikim të gjerë. Së dyti, kur një rrjet i tillë rikualifikohet, ai tenton të harrojë se si të kryejë detyrën origjinale - një efekt që quhet harresa katastrofike. Së treti, për të trajnuar një rrjet të madh kërkon vëllime të pafundme të dhënash, akses në superkompjuterë dhe megavat energji elektrike të nevojshme për të funksionuar këta superkompjuterë për ditë (ose edhe javë) në të njëjtën kohë.

Truri nuk lufton me asnjë nga këto. Ai transferon pa sforcim njohuritë midis fushave, nuk e ka problem të integrojë aftësitë e vjetra dhe të reja dhe është jashtëzakonisht efikas duke punuar me vat, jo megavat. Sofistikimi i neuroneve mund të bëjë ndryshimin. Në studimet e publikuara vitin e kaluar dhe këtë vit një ekip nga Numenta, një kompani hulumtuese kaliforniane, projektoi neurone artificiale me nënkomponentë të ngjashëm me dendritin, që janë imun ndaj harresës katastrofike. Një rrjet prej tyre, të trajnuar në 100 detyra në rend, ruajti aftësinë për të kryer të gjitha me saktësi të arsyeshme. I njëjti rrjet gjithashtu tejkalon rrjetet e perceptroneve në mësimin e shumë detyrave në të njëjtën kohë.

Disa studime tregojnë se neuronet artificiale të sofistikuara mund të përafrojnë funksionet e ndërlikuara, për shembull xor, me saktësi më të madhe dhe me më pak energji sesa bëjnë perceptronet. Të lidhura në rrjete, pajisje të tilla mësojnë më shpejt dhe me një kosto më të ulët llogaritëse se perceptronet. Pyetja se si truri zbaton njohuritë nga një fushë tek të tjerat mbetet një mister, por nuk do të ishte befasi nëse kompleksiteti i neuroneve e shpjegon këtë.

Mësimi, pra, është i njohur: natyra arriti atje e para. Nevoja mund të jetë nëna e shpikjes, por seleksionimi natyror është nëna e shpikësve. Si në neuroshkencë ashtu edhe në inteligjencën artificiale dekada e ardhshme premton të jetë e egër. Mbi një shekull pasi ai i përshkroi ato, fluturat e Ramón y Cajal po fluturojnë.

*Burimi: “The Economist” (Përktheu dhe përshtati Tiranapost)