Parte 7·7.1·14 min de leitura

O Neurônio como Unidade Computacional

Um neurônio é um elemento computacional biológico — integrando entradas, aplicando uma função de limiar e propagando sinais binários em velocidades analógicas.

neurociêncianeurôniospotencial de açãoeletrofisiologia

A conexão entre neurônios biológicos e redes neurais artificiais não é metafórica — é histórica. As redes neurais artificiais foram explicitamente projetadas para modelar como neurônios biológicos computam. McCulloch e Pitts (1943) descreveram o neurônio como uma unidade de computação lógica antes que a ciência da computação fosse uma disciplina formal. O perceptron de Rosenblatt (1958) foi uma implementação direta de dinâmica neuronal simplificada.

Entender neurônios reais preenche o que a abstração deliberadamente omitiu: a riqueza das dinâmicas neurais, o papel da geometria neural, os mecanismos da plasticidade sináptica e as razões pelas quais o cérebro é muito mais eficiente em energia e robusto do que implementações em silício. Também explica por que neurociência e aprendizado de máquina estão em um diálogo cada vez mais produtivo.

Estrutura de um Neurônio

Um neurônio é uma célula especializada otimizada para receber, integrar e transmitir sinais elétricos. Suas principais características estruturais:

Dendritos: processos ramificados que se estendem do corpo celular (soma). Recebem entradas sinápticas de milhares de outros neurônios. A complexa árvore dendrítica permite diferentes computações em diferentes ramos — evidências sugerem que ramos dendríticos individuais podem funcionar como unidades computacionais independentes.

Soma (corpo celular): contém o núcleo e a maior parte da maquinaria celular. Integra entradas de todos os dendritos. O cone de implantação axonal — onde o axônio começa — é o local de iniciação do potencial de ação; tem a maior densidade de canais de sódio dependentes de voltagem e o menor limiar para disparo.

Axônio: um processo longo e fino que transmite o sinal de saída para os terminais sinápticos. Pode ter milímetros (interneurônios) a mais de um metro de comprimento (neurônios motores até os dedos dos pés). Muitos axônios são envolvidos em mielina — uma bainha isolante lipídica produzida por células gliais — que aumenta dramaticamente a velocidade de propagação do sinal.

Terminais sinápticos (botões): no final do axônio, essas estruturas especializadas liberam neurotransmissores na fenda sináptica em resposta a um potencial de ação.

O Neurônio como Dispositivo Integra-e-Dispara

Na descrição funcional mais simples, um neurônio:

  1. Integra sinais de entrada ao longo do espaço (pelos dendritos) e do tempo
  2. Dispara (gera um potencial de ação) quando a entrada integrada excede um limiar
  3. Redefine para o estado de repouso e pode disparar novamente

Esta é a base biológica do neurônio artificial: soma ponderada das entradas → função de ativação não-linear → saída. A versão biológica é mais complexa, mas essa abstração captura a lógica essencial.

{ }Neurônio como um híbrido digital-analógico

Um neurônio opera em dois modos simultaneamente. A integração dendrítica é analógica: os potenciais de membrana variam continuamente, as entradas ponderadas se somam e há uma relação contínua entre a força de entrada e a despolarização da membrana.

A saída axonal é digital: ou um potencial de ação dispara ou não. Todos os potenciais de ação em um neurônio têm a mesma amplitude (~100 mV) e duração (~1–2 ms). A informação sobre a força do sinal é codificada não na amplitude, mas na taxa de disparo (codificação de frequência) ou no momento preciso dos spikes (codificação temporal).

Essa conversão analógico-digital no cone de implantação axonal é o que torna o sinal robusto em longas distâncias — o spike digital não se degrada à medida que viaja pelo axônio, ao contrário de um potencial analógico graduado que se atenua com a distância.

O Potencial de Ação: O Spike

O potencial de ação (PA) é a unidade fundamental da comunicação neural — uma reversão rápida e estereotipada do potencial de membrana.

Potencial de Repouso

Em repouso, o interior do neurônio está em aproximadamente −70 mV em relação ao exterior. Isso é mantido por:

  • Canais de vazamento de K⁺: o K⁺ flui para fora seguindo seu gradiente de concentração, deixando carga negativa no interior
  • Bomba Na⁺/K⁺-ATPase: exporta 3 Na⁺ para cada 2 K⁺ importados, mantendo os gradientes iônicos

Despolarização e os Canais Dependentes de Voltagem

Quando as entradas sinápticas despolarizam a membrana além do limiar (~−55 mV no cone de implantação axonal):

  1. Canais de Na⁺ dependentes de voltagem abrem (o portão de ativação abre rapidamente): Na⁺ entra, revertendo o potencial para +40 mV
  2. Repolarização: os canais de Na⁺ dependentes de voltagem inativam (um portão de inativação separado fecha) + canais de K⁺ dependentes de voltagem abrem → K⁺ flui para fora, repolarizando a membrana
  3. Hiperpolarização (undershoot): os canais de K⁺ são lentos para fechar → a membrana cai brevemente abaixo do potencial de repouso
  4. Retorno ao repouso: os canais de K⁺ fecham; a Na⁺/K⁺-ATPase restaura os gradientes iônicos

Duração total: ~1–2 ms. É isso que torna os neurônios capazes de disparar centenas de vezes por segundo.

Período refratário: imediatamente após um PA, os canais de Na⁺ estão no estado inativado e não podem reabrir independentemente do potencial de membrana (período refratário absoluto, ~1–2 ms). Isso impõe uma taxa máxima de disparo e garante que os PAs se propaguem em apenas uma direção (para frente pelo axônio).

O Modelo de Hodgkin-Huxley

Alan Hodgkin e Andrew Huxley descreveram a dinâmica do potencial de ação usando quatro equações diferenciais que modelam a abertura dependente de voltagem e tempo dos canais de Na⁺ e K⁺. Seu modelo (1952) não apenas reproduziu a forma do potencial de ação com precisão extraordinária, mas também fez previsões testáveis sobre as propriedades dos canais que foram posteriormente confirmadas.

C_m * dV/dt = I_ext - g_Na * m³h * (V - E_Na) - g_K * n⁴ * (V - E_K) - g_L * (V - E_L)
dm/dt = α_m(V)(1-m) - β_m(V)m   [portão de ativação do Na]
dh/dt = α_h(V)(1-h) - β_h(V)h   [portão de inativação do Na]
dn/dt = α_n(V)(1-n) - β_n(V)n   [portão de ativação do K]

Onde m, h, n são variáveis de porta (probabilidades de a porta estar aberta), e as funções α/β são constantes de taxa dependentes de voltagem determinadas empiricamente. Isso foi um marco na biologia quantitativa — um modelo matemático que previu com precisão o comportamento biológico a partir de princípios físicos.

Transmissão Sináptica: Comunicação Entre Neurônios

Os neurônios se comunicam nas sinapses — junções especializadas entre o terminal pré-sináptico (botão axonal) e a membrana pós-sináptica (dendrito ou soma).

Sinapses Químicas (a maioria)

Quando um PA chega ao terminal pré-sináptico:

  1. Canais de Ca²⁺ dependentes de voltagem abrem; Ca²⁺ entra no terminal
  2. O Ca²⁺ desencadeia a fusão de vesículas (proteínas SNARE mediam isso) → neurotransmissor liberado na fenda sináptica
  3. O neurotransmissor difunde pela fenda de 20–30 nm
  4. Liga-se a receptores pós-sinápticos → canais iônicos abrem (ionotrópico) ou sinalização por proteína G é ativada (metabotrópico)
  5. Potencial pós-sináptico gerado
  6. O neurotransmissor é eliminado: transportadores de recaptação (para glutamato, dopamina, serotonina) ou degradação enzimática (acetilcolina pela AChE)

Sinapses excitatórias (glutamato): abrem canais de cátions (AMPA, NMDA) → despolarizam a membrana pós-sináptica (PPSE: potencial pós-sináptico excitatório)

Sinapses inibitórias (GABA, glicina): abrem canais de Cl⁻ → hiperpolarizam ou estabilizam a membrana (PPSI: potencial pós-sináptico inibitório)

A saída do neurônio depende do equilíbrio de PPSEs e PPSIs chegando ao cone de implantação axonal.

Principais Neurotransmissores

NeurotransmissorReceptoresFunção
GlutamatoAMPA, NMDA, mGluRExcitatório; aprendizado e memória (NMDA)
GABAGABA-A (ionotrópico), GABA-B (metabotrópico)Inibitório; controle da ansiedade
DopaminaD1-D5 (metabotrópico)Recompensa, motivação, controle motor
Serotonina5-HT1–7Humor, sono, apetite
AcetilcolinanAChR (ionotrópico), mAChR (metabotrópico)Controle muscular, atenção, memória
Norepinefrinaα, β adrenérgicoAlerta, atenção, estresse

A maioria dos medicamentos psiquiátricos tem como alvo sistemas de neurotransmissores: SSRIs bloqueiam a recaptação de serotonina; benzodiazepínicos potencializam o GABA-A; antipsicóticos bloqueiam receptores D2 de dopamina; estimulantes aumentam dopamina e norepinefrina.

Computação Neural: Além da Lógica de Limiar Simples

Neurônios reais realizam computações mais sofisticadas do que o simples integra-e-dispara:

Detecção de coincidência (receptores NMDA): receptores NMDA requerem liberação simultânea de neurotransmissor pré-sináptico E despolarização pós-sináptica para abrir. Eles detectam coincidência temporal — o neurônio responde a entradas correlacionadas, não apenas somadas. Essa propriedade de detecção de coincidência é central para o aprendizado Hebbiano e a LTP.

Computação dendrítica: os dendritos não apenas somam entradas passivamente. Eles contêm canais dependentes de voltagem e podem gerar "spikes dendríticos" locais. Certas configurações dendríticas implementam lógica XOR — impossível em um perceptron simples, mas alcançável com não-linearidades dendríticas.

Codificação por taxa vs. codificação temporal: diferentes circuitos neurais usam diferentes esquemas de codificação. Os sistemas sensoriais frequentemente usam codificação por taxa (a taxa de disparo codifica a intensidade do estímulo). Alguns circuitos usam codificação temporal, onde o momento preciso do spike (em relação a outros spikes ou oscilações neurais) carrega informação.

Circuitos inibitórios: interneurônios locais (neurônios inibitórios) moldam a resposta de neurônios excitatórios. A inibição feedforward (estimulação → neurônio excitatório E interneurônio inibitório → neurônio inibitório suprime o excitatório) cria janelas temporais precisas para integração. A inibição feedback limita a taxa de disparo e cria dinâmicas oscilatórias.

Tipos de Neurônios

O sistema nervoso contém centenas de tipos celulares distintos. Distinções-chave:

Excitatórios vs. inibitórios: no córtex, ~80% dos neurônios são excitatórios (neurônios piramidais, células granulares que usam glutamato); ~20% são interneurônios inibitórios (usando GABA). O equilíbrio E/I é rigidamente regulado — perturbações causam epilepsia (muito excitatório) ou coma (muito inibitório).

Neurônios de projeção vs. interneurônios: os neurônios de projeção (células piramidais, células de Purkinje) enviam axônios longos para alvos distantes. Os interneurônios são elementos de circuito local.

Células gliais (não são neurônios, mas frequentemente esquecidas): os astrócitos regulam a transmissão sináptica, fornecem suporte metabólico e formam a barreira hematoencefálica. Os oligodendrócitos produzem mielina. A micróglia são as células imunes do cérebro. A glia supera os neurônios em uma proporção de aproximadamente 1:1 (a antiga proporção "10:1 glia" é um mito) e são cada vez mais reconhecidas como participantes ativos na computação neural.

Por Que Isso Importa para a Neurociência Computacional

Entender neurônios reais explica tanto por que as redes neurais artificiais funcionam quanto onde elas divergem da biologia:

  • ANNs usam ativações contínuas (não spikes); redes neurais de spikes (SNNs) são mais próximas da biologia e mais eficientes em energia em hardware neuromórfico
  • Neurônios biológicos têm dinâmicas temporais ricas (adaptação, burst, rebote); a maioria das ANNs usa ativações sem memória
  • Sinapses biológicas são aprendizes locais e online (Hebbiano, STDP); ANNs usam retropropagação com sinais de erro globais
  • A biologia usa representações esparsas (poucos neurônios ativos em qualquer momento); ANNs são tipicamente densas

Essas diferenças motivam o trabalho contínuo em computação neuromórfica e regras de aprendizado biologicamente plausíveis — e explicam por que o cérebro permanece uma prova de existência computacionalmente interessante de abordagens muito diferentes para a inteligência de máquina.