SiNAPSA, torek, 19. marec 2024

eSiNAPSA

Spletna revija za znanstvenike, strokovnjake
in nevroznanstvene navdušence

Možgani, računalniki - nekaj vmes

Miha Pelko

Ko me znanci vprašajo, s čim se ukvarjam in jim odvrnem: “Z računsko nevroznanostjo,” velikokrat začutim, da jim s tem nisem kaj veliko pomagal. Tako odgovoru dodam še “možgani, računalniki — nekaj vmes.” V mojem primeru je to že skoraj laž, medtem ko bi tovrstni opis zelo dobro ustrezal področju nevromorfnega inženiringa oziroma nevromorfne strojne opreme.

Miha Pelko Nevromorfni inženiring je koncept razvoja strojne računske opreme, ki se zgleduje po delovanju živčnega sistema. Za razliko od standardnih računalnikov, ki uporabljajo digitalno kodiranje — ničle in enice, se nevromorfni inženiring zanaša na analogno kodiranje in računanje — kontinuirane spremembe v električni napetosti. Pri tem se v večji ali manjši meri trudi oponašati delovanje realnega živčnega sistema od nivoja posameznih ionskih kanalov 1 preko nevronov2 pa do nevronskih stolpičev v možganski skorji3. Medtem ko sta pri standardnih računalnikih procesiranje informacij in hranjenje spomina ločeni, pa je v možganih vse skupaj združeno v organizacijo in aktivnost mreže nevronov.

Zelo pomembna lastnost možganov, ki je predvsem kritična za njihovo superiornost nad konvencionalnimi računalniki, je njihova plastičnost — sposobnost spreminjanja glede na dražljaje. Le-ta omogoča prilagajanje okolju ter učenje novih konceptov in nalog. Nevromorfni inženiring mora tako, poleg čim boljše replikacije strukture možganov (nevronskih mrež), v svoji arhitekturi vsebovati tudi pravila za spreminjanje te strukture (spreminjanje nevronov in jakosti povezav med njimi).

Uporabnost nevromorfne strojne opreme

Razloge, zakaj bi poskušali kopirati možgane, lahko razdelimo v dva sklopa. Prvi je vsekakor njihova izredna sposobnost. Kljub temu, da je že pred več kot desetimi leti računalnik Deep Blue v igri šaha premagal svetovnega velemojstra Garija Kasparova in da je pred kratkim superračunalnik Watson premagal najboljšega igralca v znanem ameriškem kvizu Jeopardy, našim možganom tudi najzmogljivejši superračunalniki še zdaleč niso kos. Oba človeška poraženca sta namreč sposobna preko vidne zaznave dojeti stanje v okolici, se umakniti prihajajočem avtobusu pa tudi naučiti skuhati ajdove žgance, česar superračunalnika, ki sta bila zgrajena in pripravljena za posebni nalogi, ne bi zmogla. Pri tem sploh nismo omenili, da najboljši superračunalniki za delovanje potrebujejo energijo, ki jo proizvaja manjša elektrarna (poraba ~1.3 MW4), medtem ko ljudje dan preživimo popolnoma nemoteno ob večji skledi žgancev (poraba 20-40W5). V kolikor se nam s posnemanjem možganov uspe vsaj nekoliko približati njihovim sposobnostim senzoričnega procesiranja in učenja, bomo to lahko uporabili pri izdelavi mnogo bolj sposobnih in energetsko učinkovitih robotov, pa tudi pri izdelavi energetsko učinkovitih senzoričnih protez, ki bi slepim in gluhim vsaj delno povrnile vid in sluh 6.

pelko2
Slika 1: IBM Blue Gene/P supercomputer. Vir: Wikipedia

Drugi razlog za tovrstni razvoj pa je v želji po razumevanju možganskih procesov. Simulacije možganskih procesov postajajo pomembno orodje pri raziskavah na molekularnem nivoju in na nivoju posameznih nevronov, kjer z njihovo pomočjo sooblikujemo postavljanje znanstvenih hipotez. Na višjem nivoju pa s simulacijami poskušamo demonstrirati zmožnosti biološko realističnih nevronskih mrež pri vzpostavitvi razumskih procesov, kot so prepoznavanje vzorcev, tvorjenje asociacij, delovni spomin … Predvsem pri simulacijah večjih mrež z zelo detajlnimi modeli posameznih nevronov postanejo simulacije na računalnikih s klasično digitalno arhitekturo zelo zahtevne (na projektu Blue Brain za simulacijo nekaj sekund trajajoče aktivnosti nekaj stolpičev podganje možganske skorje porabijo več ur računskega časa superračunalnika). Čas teh simulacij bi bil mnogo krajši, če bi, namesto digitalne, uporabili analogno arhitekturo, ki se direktno zgleduje po nevronih samih.

Kaj že imamo?

Zaradi potencialne uporabnosti nevromorfne strojne opreme se z njenim razvojem ukvarja več znanstvenih skupin. V Evropi je najbolj poznan projekt FACETS, ki se z letošnjim letom nadaljuje v projekt BrainScaleS. Celotno umetno nevronsko mrežo sestavljajo iz osnovnih čipov, ki vsebujejo 512 nevronov z do 256 vhodnimi sinapsami na nevron 7, v okviru projekta pa načrtujejo vzpostaviti mrežo z 1,6 miljona nevroni in 400 milijoni dinamičnimi sinapsami z namenom simulacij realnih nevronskih mrež.

Skupina dr. Boahena s stanfordske univerze je razvila mrežo Neurogrid z več kot milijonom nevronov, ki za delovanje porabi zgolj 1W.

Avgusta je podjetje IBM objavilo izjavo za medije o razvoju svoje tehnologije, ki v jedru vsebuje 256 nevronov bodisi z nastavljivimi vrednostmi za moč sinaps (262.144) bodisi z učečimi se sinapsami (65,536). Uspešno so jo preizkusili tudi na nekaj osnovnih aplikacijah.

Kaj lahko pričakujemo?

Objava IBM-a je bila v medijih sicer zelo odmevna. Razen pričakovanja, da bo razvoj nevromorfne opreme z vstopom tako velike komercialne raziskovalne skupine dobil nov veter, pa novica ne prinaša prav veliko novega.

Kar se tiče uporabe nevromorfne opreme je kljub svoji izjemni energetski in računski učinkovitosti omejena z našim razumevanjem in sposobnostjo za “programiranje” takšne opreme. Tradicionalna digitalna arhitektura je zgrajena na principih logike, ki smo jo razvili skozi stoletja in jo zato znamo dobro uporabljati. Nevronskih mrež se ne da programirati na klasičen način. Njihova uporaba bi zahtevala tudi veliko spremembo na področju razvoja programske opreme. Glede na eksponenten razvoj klasične računske opreme motivacija za spreminjanje ustaljenih načinov niti ni dovolj močna. Tako so vsaj na kratki rok najboljša tarča za razvoj tovrstne opreme senzorične proteze za vid in sluh, kjer bi bila majhna poraba energije zelo dobrodošla, hkrati pa bi take naprave govorile jezik mnogo bližji jeziku naših možganov6.

Možgani za superiorno delovanje ne zahtevajo eksplicitnega programiranja. To je doseženo preko postopkov učenja. Plastičnost možganov, ki omogoča učenje, je v zadnjih letih podvržena številnim študijam. Le-te ena za drugo nakazujejo, da so pravila, ki narekujejo spremembe v sinapsah in nevronskih mrežah, bolj zapletena, kot je sprva kazalo8. Dokler ne poznamo in ne razumemo pravil plastičnosti, tudi nevromorfna strojna oprema ne bo mogla priti blizu sposobnosti možganov, da se učijo in prilagajajo okolju. Ko to enkrat dosežemo, bo še zanimivo.

    ___
  1. Kai M. Hynna and Kwabena Boahen, “Thermodynamically Equivalent Silicon Models of Voltage-Dependent Ion Channels,” Neural Computation 19, no. 2 (2007): 327-350. 

  2. Q. Zou et al., “Real-time simulations of networks of Hodgkin–Huxley neurons using analog circuits,” Neurocomputing 69, no. 10-12 (June 2006): 1137-1140. 

  3. T. Y.W Choi et al., “Neuromorphic implementation of orientation hypercolumns,” IEEE Transactions on Circuits and Systems I: Regular Papers 52, no. 6 (June 2005): 1049- 1060. 

  4. http://www.top500.org/lists/2008/06/highlights/power, 10.10.2011 

  5. http://hypertextbook.com/facts/2001/JacquelineLing.shtml, 10.10.2011 

  6. Kwabena Boahen, “Neuromorphic Microchips,” Scientific American 16 (September 2006): 20-27. 

  7. J. Schemmel, J. Fieres, and K. Meier, “Wafer-scale integration of analog neural networks,” in IEEE International Joint Conference on Neural Networks, 2008. IJCNN 2008. (IEEE World Congress on Computational Intelligence) 

  8. P. Jesper Sjöström et al., “Dendritic Excitability and Synaptic Plasticity,” Physiological Reviews 88, no. 2 (April 1, 2008): 769 -840. 

Miha Pelko,
Institute for Adaptive and Neural Computation,
University of Edinburgh