NCT 重构了 6 大经典意识神经科学理论,实现了数学统一与工程落地
Baars 的全局工作空间理论认为,意识是大脑中信息全局广播的结果。
NCT 使用多头注意力机制实现全局工作空间,8 个注意力头分别负责不同功能:视觉/听觉显著性检测、情绪价值评估、任务相关性判断、新颖性检测。
准确率从 75% 提升至 92% (+23%)
Tononi 的 IIT 理论认为,意识是系统整合信息的度量,用Φ值表示。
NCT 从 Attention Flow 计算Φ值,使用随机二分分割近似,将复杂度从 O(2^N) 降至 O(n²),与精确计算相关性 r=0.978。
Φ值达到 0.329 (d=768),提升 2.3 倍
Friston 的自由能原理认为,大脑通过最小化预测误差来感知世界。
NCT 证明 Transformer Decoder 的训练目标等价于最小化变分自由能,统一了预测编码与深度学习。
自由能降低 83.0%
脉冲时序依赖可塑性 (STDP) 是赫布学习的时间精细版本。
NCT 提出 Transformer-STDP 混合学习:Δw = (δ_STDP + λ·δ_attention) · η_neuromodulator,结合局部时间关联与全局语义调制。
收敛速度提升 5 倍,延迟 <2ms
多巴胺 (DA)、5-羟色胺 (5-HT)、去甲肾上腺素 (NE)、乙酰胆碱 (ACh) 调节学习速率。
NCT 实现指数门控公式:η = exp(Σ w_k·Δn_k),动态调节突触可塑性。
时序关联学习提升 89% (Cohen's d = 1.41)
40Hz 伽马振荡与意识知觉的时间整合相关。
NCT 使用简化 PING 模型实现相位锁定,作为意识更新的周期信号。
端到端延迟 69.7ms (d=768),匹配 2.8 个γ周期
NCT 系统架构:多模态输入 → 特征编码 → Attention 工作空间(多候选竞争)→ 混合学习 + 预测编码 + Φ值计算