NCT

理论框架

NCT 重构了 6 大经典意识神经科学理论,实现了数学统一与工程落地

🧠

全局工作空间理论 (GWT)

Baars 的全局工作空间理论认为,意识是大脑中信息全局广播的结果。

NCT 实现方式

NCT 使用多头注意力机制实现全局工作空间,8 个注意力头分别负责不同功能:视觉/听觉显著性检测、情绪价值评估、任务相关性判断、新颖性检测。

性能提升

准确率从 75% 提升至 92% (+23%)

🔗

整合信息论 (IIT)

Tononi 的 IIT 理论认为,意识是系统整合信息的度量,用Φ值表示。

NCT 实现方式

NCT 从 Attention Flow 计算Φ值,使用随机二分分割近似,将复杂度从 O(2^N) 降至 O(n²),与精确计算相关性 r=0.978。

性能提升

Φ值达到 0.329 (d=768),提升 2.3 倍

🎯

预测编码 (Predictive Coding)

Friston 的自由能原理认为,大脑通过最小化预测误差来感知世界。

NCT 实现方式

NCT 证明 Transformer Decoder 的训练目标等价于最小化变分自由能,统一了预测编码与深度学习。

性能提升

自由能降低 83.0%

STDP 可塑性

脉冲时序依赖可塑性 (STDP) 是赫布学习的时间精细版本。

NCT 实现方式

NCT 提出 Transformer-STDP 混合学习:Δw = (δ_STDP + λ·δ_attention) · η_neuromodulator,结合局部时间关联与全局语义调制。

性能提升

收敛速度提升 5 倍,延迟 <2ms

💊

神经调质系统

多巴胺 (DA)、5-羟色胺 (5-HT)、去甲肾上腺素 (NE)、乙酰胆碱 (ACh) 调节学习速率。

NCT 实现方式

NCT 实现指数门控公式:η = exp(Σ w_k·Δn_k),动态调节突触可塑性。

性能提升

时序关联学习提升 89% (Cohen's d = 1.41)

🌊

γ同步振荡

40Hz 伽马振荡与意识知觉的时间整合相关。

NCT 实现方式

NCT 使用简化 PING 模型实现相位锁定,作为意识更新的周期信号。

性能提升

端到端延迟 69.7ms (d=768),匹配 2.8 个γ周期

系统架构

NCT System ArchitectureSensory InputVision / Audio / TextMultimodal EncoderFeature ExtractionAttention Workspace (GWT)Head 1VisualHead 2EmotionHead 3TaskHead 4NoveltyMulti-Candidate CompetitionWC2C3C4WinnerTransformer-STDPHybrid LearningPredictive CodingFree Energy MinimizationΦ CalculatorIntegrated InformationLegend:Processing FlowAttention ModulationFeedback LoopWWinner CandidateKey Metrics: Φ=0.329 Accuracy=92% Latency<2ms

NCT 系统架构:多模态输入 → 特征编码 → Attention 工作空间(多候选竞争)→ 混合学习 + 预测编码 + Φ值计算

深入了解技术细节

阅读完整技术文档,了解 NCT 的工程实现

查看文档 →