banner
Centro notizie
Il nostro servizio online è disponibile 24 ore su 24.

Le onde cerebrali sincronizzate in modo critico costituiscono una base efficace, robusta e flessibile per la memoria e l’apprendimento umani

Jul 21, 2023

Rapporti scientifici volume 13, numero articolo: 4343 (2023) Citare questo articolo

1371 accessi

3 Altmetrico

Dettagli sulle metriche

L’efficacia, la robustezza e la flessibilità della memoria e dell’apprendimento costituiscono l’essenza stessa dell’intelligenza, della cognizione e della coscienza naturale umana. Tuttavia, le opinioni attualmente accettate su questi argomenti sono state finora avanzate senza alcuna base su una vera teoria fisica di come il cervello comunica internamente tramite i suoi segnali elettrici. Questa mancanza di un solido quadro teorico ha implicazioni non solo per la nostra comprensione di come funziona il cervello, ma anche per un'ampia gamma di modelli computazionali sviluppati dalla visione ortodossa standard dell'organizzazione neuronale del cervello e del funzionamento derivato dalla rete cerebrale basata sulla pubblicità di Hodgkin-Huxley. -analogia di circuiti ad hoc che hanno prodotto una moltitudine di reti neurali artificiali, ricorrenti, di convoluzione, di picchi, ecc. (ARCSe NN) che hanno a loro volta portato agli algoritmi standard che costituiscono la base dell'intelligenza artificiale (AI) e dell'apprendimento automatico ( metodi ML). La nostra ipotesi, basata sul nostro modello fisico recentemente sviluppato di propagazione delle onde cerebrali debolmente evanescenti (WETCOW), è che, contrariamente all'attuale modello ortodosso secondo cui i neuroni cerebrali si limitano a integrarsi e attivarsi con l'accompagnamento di una lenta perdita, possono invece svolgere compiti molto più sofisticati di sincronizzazione/desincronizzazione efficiente e coerente guidata dall'influenza collettiva della propagazione non lineare delle onde cerebrali vicine a quelle critiche, le onde che attualmente si presume non siano altro che un irrilevante rumore sottosoglia. In questo articolo evidenziamo le capacità di apprendimento e memoria del nostro framework WETCOW e quindi lo applichiamo all'applicazione specifica di AI/ML e reti neurali. Dimostriamo che l’apprendimento ispirato da queste onde cerebrali sincronizzate in modo critico è superficiale, ma i suoi tempi e la sua precisione superano le controparti ARCSe profonde su set di dati di test standard. Questi risultati hanno implicazioni sia per la nostra comprensione della funzione cerebrale che per l’ampia gamma di applicazioni AI/ML.

I meccanismi della memoria umana rimangono uno dei grandi misteri irrisolti della scienza moderna. Essendo una componente critica dell’apprendimento umano, la mancanza di una teoria coerente della memoria ha implicazioni di vasta portata anche per la nostra comprensione della cognizione. I recenti progressi nelle neuroscienze sperimentali e nel neuroimaging hanno evidenziato l’importanza di considerare le interazioni dell’ampia gamma di scale spaziali e temporali in gioco nella funzione cerebrale, dalle microscale dei dendriti subcellulari, delle sinapsi, degli assoni, dei somi, alle mesoscale delle cellule interagenti. reti di circuiti neurali, le macroscale dei circuiti cerebrali. Le attuali teorie derivate da questi dati sperimentali suggeriscono che la capacità degli esseri umani di apprendere e adattarsi a stimoli esterni in continua evoluzione si basa sullo sviluppo di circuiti, reti e architetture complessi, adattabili, efficienti e robusti derivati ​​da disposizioni flessibili tra la varietà dei tipi di cellule neuronali e non neuronali nel cervello. Una teoria praticabile della memoria e dell’apprendimento deve quindi basarsi su un modello fisico in grado di produrre fenomeni spaziotemporali multiscala coerenti con i dati osservati.

Al centro di tutti i modelli attuali per l’attività elettrica cerebrale c’è il modello di stimolazione dei neuroni formulato da Hodgkin e Huxley (HH)1 che ha fornito descrizioni quantitative dei flussi di Na+/K+, dei cambiamenti di conduttanza dipendenti dalla tensione e dal tempo, delle forme d’onda dei potenziali d’azione e la conduzione dei potenziali d'azione lungo le fibre nervose2. Sfortunatamente, sebbene il modello HH sia stato utile per adattare serie di equazioni multiparametriche alle misurazioni locali della membrana, il modello è stato di utilità limitata nel decifrare funzioni complesse che si verificano in reti interconnesse di neuroni cerebrali3. Da un punto di vista pratico, il modello HH originale è troppo complicato per descrivere anche reti relativamente piccole4,5,6. Ciò ha portato allo sviluppo di tecniche di ottimizzazione7,8,9,10 basate su un modello molto ridotto di un neurone con perdita di integrazione e fuoco (LIF) che è abbastanza semplice da essere utilizzato nelle reti neurali, poiché sostituisce tutte queste porte multiple , correnti, canali e soglie con un'unica soglia e costante di tempo. La maggior parte dei modelli di rete neurale (SNN) utilizza questo semplicistico neurone LIF per il cosiddetto "apprendimento profondo"11,12,13,14 sostenendo che questo è ispirato al funzionamento del cervello. Sebbene vengano utilizzati più modelli LIF per la classificazione delle immagini su set di dati di grandi dimensioni15,16,17,18,19, la maggior parte delle applicazioni degli SNN sono ancora limitate a set di dati meno complessi, a causa delle dinamiche complesse anche del modello LIF eccessivamente semplificato e delle operazioni non differenziabili di Neuroni che stimolano il LIF. Alcuni studi notevoli hanno applicato le SNN per attività di rilevamento di oggetti20,21,22. Metodi basati su Spike sono stati utilizzati anche per il tracciamento degli oggetti23,24,25,26. È in piena espansione la ricerca sull'utilizzo delle reti di spiking LIF per l'apprendimento online27, la lettura di lettere in braille28, diversi dispositivi sinaptici neuromorfici29 per il rilevamento e la classificazione di problemi biologici30,31,32,33,34,35,36. Una ricerca significativa è focalizzata sulla creazione di un controllo a livello umano37, sull'ottimizzazione degli algoritmi di propagazione all'indietro per le reti di picco38,39,40, nonché sulla penetrazione molto più profonda nel nucleo degli ARCSes41,42,43,44 con un numero minore di passaggi temporali41, utilizzando un evento- paradigma guidato36, 40, 45, 46, applicazione della normalizzazione batch47, ottimizzazioni scatter-and-gather48, plasticità supervisionata49, mappe binarie a fasi temporali50 e utilizzo di algoritmi di apprendimento del trasferimento51. Insieme a questa vasta gamma di applicazioni software, esiste un'enorme quantità di ricerca diretta allo sviluppo e all'utilizzo di questi LIF SNN in applicazioni embedded con l'aiuto dell'hardware neuromorfico52,53,54,55,56,57, il nome generico dato all'hardware che è nominalmente basato o ispirato alla struttura e alla funzione del cervello umano. Tuttavia, sebbene il modello LIF sia ampiamente accettato e onnipresente nelle neuroscienze, è tuttavia problematico in quanto non genera alcun picco di per sé.

\pi /2\)) roles (this is in addition to any phase shift introduced by the static network attributed phase delay factors \(\delta _{ij}\))./p>