Hjärnan - ett neuralt nätverk




Ju mer människan forskar i hjärnan desto mindre vet hon procentuellt om dess egenskaper. När jag tog mina examina kände vi till vad 40% var till för, nu när min son tar sin examen känner vi bara till vad 20% är till för.David Ingvar (i Fråga Lund för länge sedan)


(Denna undersida ingår i avsnitt Hjärnans plasticitet, som i sin tur ingår som en del i temaavsnittet H sapiens - info-behandling, som infördes 2019-03. Länkar är kontrollerade 2019-05 eller senare. Fotnoter finns längst ner på sidan.)

Denna sida, införd 2019-03,  behandlar kort följande områden:

Neuroner och synapser

wiki/hjärna (2019-02):

Två huvudgrupper av celler: nervceller (neuroner) c:a 100 miljarder st och gliaceller (glia), också c:a 100 miljarder (eller mer?), som understödjer nervcellerna och som - enl. ([Nilsonne2016], s 41) - nyligen visats ha en aktiv roll för minnesfunktioner. Varje nervcell har kontakt med mellan c:a  1000 och 10000 andra nervceller via synapser (not 1). Via dessa överförs alltså signaler mellan nervcellerna. Nervceller innehåller cellkropp (grå), axon (vita, ofta långa) och dendriter (korta). Cellkroppen innehåller ungefär samma saker som de flesta kroppsceller. En synaps består av nervända på axon från sändande neuron, postsynaptiska membranet på dendritgren (till mottagande neuron) och ett litet mellanrum, synapsklyftan. Här överförs info från en nervcell till nästa med hj av neurotransmittorer (signalsubstanser), som tas emot av receptorer i membranet. Synapsen har förmåga att förstärka eller dämpa signalen.

[Set_et_al2013]:

Signaler skickas i axonerna i form av elektriska nervimpulser, c:a 0.1  volt; vardera c:a 1 ms, med en hastighet av c:a 480 km/h. I synapsen sker kemisk signalöverföring från axon till dendrit. Stödjeceller (gliaceller) sköter underhållet av neuronernas miljö. Signalsubstanser stimulerar eller hämmar aktiviteten. Det finns mängder av olika signalsubstanser och ännu fler receptorer, s 18+. Varför? Vi vet inte så mycket men vissa signalsubstanser har andra funktioner än att bara stimulera eller hämma signalering. Kopplat till förändrad situation i omgivningen kan signaler skickas till neuronens kärna  så att nödvändiga gener slås på. Generna ser till att lämpliga proteiner skickas till synapsen så att dess styrka blir varaktigt förändrad.

Olika delar av hjärnan anses specialiserade på olika funktioner (se dock Jörntell 2019-04 nedan!). Dock ligger en funktion alls inte i sin helhet i en viss hjärndel. En hjärndel kan snarare vara nav i ett komplicerat nätverk där en stor del av hjärnan är involverad.

Ex 1. Tar man bort amygdala så försvinner funktionen att känna rädsla. Men för att vi ska kunna känna rädsla behövs förutom amygdala också amygdalas nätverk och kontakt med andra hjärndelar.

Vid en EEC-undersökning tros den mätbara elektriska aktiviteten bero på synkroniserad aktivitet hos många hjärnceller. Man kan registrera aktivitet med olika frekvenser: 10 Hz (alfavågor, under vaken vila med slutna ögon), 1-4 HZ (deltavågor), 4-8 Hz (thetavågor), 12-2Hz (betavågor i motoriska regioner), 25-70Hz (gammavågor, vid koppling mellan flera sinnesintryck som bildar komplex helhet). Not 1.5.

[O’Shea2005].

Förutom "klassiska" kemiska synapser (enkelriktade) så finns elektriska synapser (dubbelriktade, jämför med lödpunkter). Dessa är snabba, bra vid flyktresponser men har ingen förstärkningsfunktion. Ett ytterligare kommunikationssätt är att använda fritt diffunderande meddelandemolekyler (transmittorgaser) (not 2), t ex kväveoxid, s 49. Dessa kan kommunicera med många neuroner i ett område och motsvarar då ungefär broadcastsignaler i datornätverk. För att bättre förstå hjärnans funktioner måste man känna till både det synaptiska kopplingsschemat och denna broadcastsignalering med substanser som rör sig mer fritt i hjärnan.

Minne, s 107+, verkar vara relaterat till modifiering (korttidsminne) resp syntes (långtidsminne) av proteiner.

____________________________

Jämförelser dator - hjärna

Referenser: [GU2008a], [GU2008b]

Det ligger nära till hands att försöka se likheter mellan dator och hjärna (se t ex avsnittet Psykiska variationer, not 16 Analogi dator - hjärna). Och sådana finns men nedan framgår att det dock också finns enorma skillnader mellan en klassisk dator och en hjärna.  

Hjärnan hanterar osäker omgivning med oprecisa indata

Mänskliga hjärnan är kanske det mest komplexa objektet i universum. Den är överlägsen en traditionell dator på t ex att hitta och separera mönster (associationer, korrelation) bland stora mängder data och programmerar sig själv från insignaler (från omgivningen) (not 3). Aritmetik och  logik är den traditionella datorn bättre på.

Ex 2: Hjärnan har mycket lätt för att skilja på en baby och en hundvalp. Denna uppgift klarar en klassisk dator ev. av med ansträngning via avancerat program men inte på ett “naturligt” sätt. En dator däremot har mycket lättare för att räkna ut roten ur 4893.

Ex 3: En tränad hjärna (läkare) kan skilja  friska lungor från sjuka m hj av röntgenbilder. Läkaren är då tränad m hj av exempel snarare än m hj av en inpluggad kriterielista.

Miljoner år av utveckling har i hjärnan lett till en sofistikerad beräkningsmodell, som kan tränas för och hantera en osäker omgivning (med komplicerade och oprecisa data).  Modellen är alltså bra för överlevnaden. Den skiljer sig avsevärt från den klassiska datorn som varit standard från 1940-talet (von Neumann-datorn med styrenhet, aritmetikenhet, separata minnesenheter,  seriellt exekverade instruktioner som adresserar och hämtar data från minne etc).

Beräkningskapacitet för sensomotoriska funktioner

Sensoriska och motoriska funktioner kräver mer beräkningskapacitet än abstrakt tänkande

AI- och robotforskare har upptäckt något som kan tyckas paradoxalt, se Moravecs paradox.  Moravec säger:

"it is comparatively easy to make computers exhibit adult level performance on intelligence tests or playing checkers, and difficult or impossible to give them the skills of a one-year-old when it comes to perception and mobility"

Sensoriska och motoriska färdigheter som upplevs enkla är alltså inte enkla att implementera effektivt. Att gå och hämta en kopp kaffe i köket och gå tillbaka till TV-soffan brukar kännas ganska enkelt. Men de flesta moment - helt omedvetna - kräver en enorm beräkningskapacitet. Att det känns enkelt beror på att evolutionen under storleksordningen någon miljon år lyckats få fram specialiserat neuronnätverk för dessa uppgifter (jämför ASIC i elektronikvärlden). Abstrakt tänkande - å andra sidan - är inte så svårt egentligen, d.v.s. kräver inte så hög beräkningskapacitet. En dator kan lätt klara multiplikation, logiska operationer etc. Men att tänka abstrakt  är ju ett nytt trick, som evolutionen bara filat på i storleksordningen 100 000 år, så det är svårt och går långsamt för vår hjärna.

Kort jämförelse klassisk dator - hjärna

Klassisk dator (baserad på kisel):

Hjärna (baserad på biologi):

Vitala olikheter digital maskin - levande organism

Nedanstående, som kanske ger en antydan om varför det kan vara  svårt att konstruera en dator med hjärnans beräkningseffektivitet, är hämtat från [Karlqvist1999], s 185+, avsnitt Hjärnan och datorn (ev. vet man lite mer nu efter 20 år?).

Vi vill gärna efterlikna hjärnans effektivitet map självorganisation, inlärning, förmågan att känna igen mönster och göra många beräkningar simultant. En vanlig hypotes är att varje process i naturen kan simuleras med symboliska beräkningar och att fysisk realisering är irrelevant. Men en biomolekylär process är taktil snarare än logisk.  Dess mönsterpassningar kännetecknas av rörelse och nyckel-låsmekanismer (inkl. s.k. van der Waals-krafter), vilket är väldigt annorlunda jämfört med datorns symboliska beräkningar. Datorn har betydligt lägre beräkningseffektivitet och sämre anpassnings- och interaktionsförmåga. Graden av beräkningsförmåga sätts ytterst av antalet möjliga interaktioner mellan olika delar. I biologiska system (“våtvara”) är förmågan väl utnyttjad via hög grad av interaktion bland tredimensionella organiska molekyler - aminosyror i veckade proteiner. Simuleringar i dator är begränsade av programmerarens antaganden, medan biologiska system innehåller en enorm rikedom - antalet tänkbara typer av proteiner är ofattbart stort (det finns 20 typer av aminosyror; proteiner kan typiskt bestå av 300 aminosyror; antal proteintyper alltså <= 20300!).

Nya rön från LU: Avkodning i hela neocortex

Nya intressanta forskningsresultat från neurofysiologen Henrik Jörntell i Lund (se 4 min video) torde leda till delvis omprövning av tidigare tankar om specialisering i hjärnan. I princip hela neocortex verkar vara involverad i alla omvärldsupplevelser registrerade av våra olika sinnen (“ubiquitous neocortical decoding”). Varje nervcell är inblandad i olika funktioner. Det nya synsättet kan bättre förklara varför små hjärnskador kan passera obemärkt. Det förklarar också varför s.k. synestesi (intersinnessamverkan) kan ses som ett grundläggande, naturligt och begripligt arbetssätt hos hjärnan. Hjärnan strävar ju efter en helhetsbild. Men denna ska också vara användbar och effektiv. Hon försöker oftast efter hand därför mer eller mindre generalisera och kategorisera och ta bort onödiga detaljer (“brus”), varför de flesta av oss kanske inte har märkbar synestesi. Men visst är det mer än smaksinnet som har betydelse när vi tycker något smakar bra: lukt, synintryck, konsistens …?

Hjärnans programvara & arkitektur

(Infört 2023-01) Intressanta gissningar från RISE (Research  Institutes of Sweden) 



Hjärnan kan enl. Martin Nilsson kort sägas innehålla en dator "av senaste NMC-modell (“Near-memory computing”) med symmetrisk dubbelprocessor".


Martin Nilsson reflekterar över det faktum att stora resurser läggs på att förstå hjärnans “maskinvara”, d.v.s. på hjärnans neuroner och hur de är kopplade till varandra (connectomics), men att satsningar på att utgående från “maskinkod” förstå programvaran (disassemblera, dekompilera) är försumbara. Jämför med en mobiltelefon där vi brukar vara mer intresserade av programvaran (apparna) än maskinvaran! Att vi idag inte förstår hur hjärnan fungerar kan vi inte så mycket skylla på bristande “maskinvaru”-kunskap utan på vår bristande kunskap om representation, programvara och algoritmer.


Utgående från vad man allmänt vet om hjärnan och om datorer idag, så gör Martin Nilsson ett mycket intressant försök att gissa om hjärnans arkitektur och programvara. Han mappar hjärnans viktigare delar på motsvarigheter i en dator och spekulerar kring intern kommunikation, klockfrekvens (motsvarande fördröjning i huvudslinga cortex - thalamus), datarepresentation (extremt breda instruktioner i hjärnan), adresseringsprinciper (associativ adressering; troligen ej stack;), primitiver (t ex troligen bra anpassning till linjär algebra), gestaltning (hjärnan gissar och  bygger upp en hel scen m hj av några få antydningar; hålen i vår perception fylls; gles representation).


(*) Martin Nilsson (privat hemsida här) är en matematisk fysiker som ofta arbetar multidisciplinärt. Han publicerade 2021 tillsammans med neurofysiologen Henrik Jörntell en artikel (ej läst) om en ny mekanistisk, d.v.s. förklarande, modell av signaleringen mellan biologiska neuroner.


Se också  detta mycket intressanta föredrag :


Har du ont om tid så kolla gärna i alla fall förslaget till mappning mellan några av hjärnans  viktigare delar och ett datalogiskt blockschema, stegvis och pedagogiskt illustrerat, min 10:24 - 14:59. 

______________________________

Artificiella neurala nätverk

ANN:s struktur

(Se gärna [GU2008a] och [GU2008b] (Gtbgs universitet 2008), som ger bättre introduktion)

I artificiella neurala nätverk, ANN, har man försökt - förmodligen relativt sett mycket primitivt - imitera vad man anser sig veta om den biologiska förebilden, d.v.s. biologiska neurala nätverk, BNN. Syfte är att modellera och simulera BNN för att förstå mer om hjärnan men också för att med s.k. djupinlärning lösa tekniska problem, som är svåra klara av med konventionella datalogiska metoder. Man försöker alltså (framgångsrikt!) lära sig av naturen.

Nätverket i ANN består av ett antal noder (motsvarar neuroner) Xi som har förbindelse med varandra (motsvarar synapser). Varje nods utgång har en viss aktivitetsnivå xi (motsvarar elektrisk signal i neurons axon). Förbindelsens signalstyrka påverkas av en viss vikt wij (vilket motsvarar att synapsen kan dämpa eller förstärka utsignalen till nästa neuron).

Fig 1. Enkelt neuralt nät i två lager med signalriktning från övre till undre lager.

Signaler som går genom en förbindelse multipliceras alltså med dess vikt. De noder som tar emot signaler från omgivningen kallas inputnoder (kan motsvara sensoriska neuroner). För typiska ANN summerar noden sina insignaler. Summan transformerar m hj av en aktiveringsfunktion till en aktivitet (utsignal), som går till nästa nod (eller till omgivning om motorneuron). Se figur 2.

Fig 2. Nod, dvs modell av neuron, där

Summerad insignal: x_in4 = Summa (xi * wi4) och

Output = aktivitet för nod X4: x4 = f( x_in4), där f kallas aktiveringsfunktionen.

Nätets egenskaper beror till stor del på aktiveringsfunktionen. En stegfunktion (tröskelfunktion) där utsignal blir antingen 0 eller 1, antages typiskt modellera enstaka signal i ett neuron. S.k. sigmoida (S-formade) funktioner (jämför dos-responssamband) kan vara modell för signalfrekvensens olinjära inputberoende i ett neuron.

En av de mest remarkabla egenskaperna hos både BNN och ANN  är att de programmeras genom att tränas. ANN kan tränas genom att det matas med kända indata och känt facit (kända utdata) . Programmeringen antages väsentligen bygga på att vikterna för förbindelserna justeras (i biologiska system justeras synapsernas styrkor). Om beräkningar skiljer sig från känt svar så justeras signalvikter iterativt tills beräkningarna konvergerar mot facit.

Självlärande system matas med data utan facit. I stället justeras vikterna beroende på om användaren t ex gillar resultatet eller ej (hos människan om hen känner välbehag eller obehag eller så kollar hen omgivningens reaktion etc). Om det gäller ANN i reglertekniktillämpning kan det handla om att sträva mot ett börvärde.

Ex 4. En mus får springa i en labyrint. Om den går in till vänster belönas den med en ostbit - om den går åt höger uteblir ostbiten (vid mer otrevliga experiment  får musen en liten elstöt). Musen kommer i fortsättningen att välja att gå till vänster. Anm. Om belöning eller straff kommer slumpmässigt blir det omöjligt för nätverket att konvergera till ett beslut och musen blir förvirrad och stressad.

Mekanismerna för hur vikterna förändras i självlärande system (inlärningsalgoritmerna) är förstås av stort intresse. För ANN har man föreslagit diverse varianter som förändrar vikterna på olika sätt. En variant som troligen har likheter med biologiska mekanismer är den s.k. Hebb-regeln ([GU2008b]/Inlärningsregler), där vikten för en förbindelse ändras i proportion till produkten av aktiviteterna hos sändande nod och mottagande nod. Med beteckningar i figur 2 ovan: delta wij = k * xi * xj.

Figur 1 ovan visade ett mycket liten neuralt nätverk. Verkliga nätet i hjärnan är svindlande stort och strukturen (nätverksarkitekturen) kan se ut på olika sätt.  Det kan finnas flera lager (input-lager, output-lager och lager däremellan) och typiskt i hjärnan är att signaler är återkopplade, dvs en utsignal kan riktas tillbaka till annan nod i samma lager eller till tidigare lager (feedback-arkitektur). Antagligen kan olika viktningar i ett sådant återkopplat nätverk leda till varierande dynamik, t ex att output stabiliseras till vissa värden eller att output oscillerar (varierar i tiden) mellan olika värden etc.

Ett exempel på struktur är det s.k Hopfieldnätverket ([GU2008b]/Hopfieldnätet). Alla neuroners utgång där är återkopplade till allas ingångar förutom sig självt. Varje neuron har bara ett binärt tillstånd. Kan ses som starkt förenklad modell av hjärnans minne. Kan återskapa störda indata till ett mönster nätet känner igen.

Djupinlärning.

Hjärninspirerad inlärningsprogramvara i artificiella nätverk med många neuronlager (d.v.s. djupa nät) kallar man deep machine learning; på svenska djupinlärning. Sådan har på senare år använts mycket framgångsrikt för bl. a. språk- och bildbehandling. Se [Tegmark2017], s 92+. Genom att konstruera ett i princip ganska enkelt nätverk - men med många lager - och sedan låta det självt lära sig med hjälp av enorma mängder data, så kan det utföra förbluffande avancerade uppgifter. Klassisk programvaruprinciper kan (för mindre avancerade uppgifter) kräva ett omfattande och träligt manuellt programmeringsarbete men man förstår (i princip) vad som görs och hur det görs. Informationsbehandlingen i det djupa nätverket går inte att förstå på samma sätt. Det är närmast en svart låda som kan visa oss vad den lärt sig men inte hur. I vissa tillämpningar kan det förstås vara problematiskt att denna svarta låda inte kan förklara varför vi ska tro på resultaten (not 5).

_________________________________________


Vidare till nästa undersida i avsnitt om hjärnans plasticitet, Anpassning till miljön, eller tillbaka till startsidan för hela temaområdet, H sapiens - informationsbehandling

____________________________________________

Not 1. Med synapser avser vi här normalt kemiska enkelriktade synapser (det lär finns ett antal andra sorter).
Not 1.5. Mitt försök just nu att förstå dessa neuronavfyrningsfrekvenser är att anta att neuronerna är organiserade i återkopplade nät där fördröjningstiden i återkopplingen gör den positiv för - dvs förstärker - den specifika frekvensen.Not 2. Ett liknande kommunikationssätt verkar vara endokrin (hormonbaserad) signalering.Not 3. Naturligtvis är människans hjärna dock inte ett helt “oskrivet blad” från födseln (en ide som tillskrivits filosofen John Locke, som levde på 1600-talet och som Pinker argumenterade mot i [Pinker2002]). Hon har redan före födseln givetvis ett stort antal fungerande hjärnfunktioner och dessutom har hon en initial personlighet, som vidarutvecklas med hjälp av interaktion mellan gener och miljö.
Not 4.  Biologisk aktivitet orsakar - inte minst i den energislukande hjärnan - avfallsprodukter. Hjärnan har ganska nyligen visats ha ett renhållningssystem (se dansk forskare fick svenskt pris 2018), som påminner om vårt lymfatiska system och som fungerar effektivt när vi sover; se också F&F20161102. Långsiktigt giftiga proteiner (t ex amyloidprotein som ansamlas i hjärnan vid Alzheimer) rensas bort under sömnen.Ex (anekdotiskt!): Ronald Reagan och Margaret Thatcher sov 4 timmar/dygn, vilket man ju tyckte var fantastiskt. Båda fick Alzheimer.Senare tids forskning har dessutom visat att god sömn stödjer en lång rad hjärnfunktioner genom att nybilda, förstärka, försvaga kopplingar i neurala nätverket: inlärningsförmåga, minnesförmåga, kreativitet,  kalibrering av vår känslohjärna. Se Minne och inlärning, avsnitt om sömnens betydelse.
Not 5. Djupinlärning hittar alltså mönster och samvariationer i en stor mängd observationer (uppmätta fakta). Jämför filosofiska inriktningen positivism, som också går ut på att man får sin kunskap med hjälp av observationer, d.v.s. med hjälp av erfarenheter och iakttagelser (empiri). Visst behövs observationer men de räcker inte om vi på djupet ska begripa världen. Vi behöver också adekvata modeller där orsakssamband framgår (kunskap om samvariationer räcker inte).