NCT
文档中心

架构说明

NCT 核心模块的详细技术说明

系统架构

深入理解 NCT 的 8 大核心模块和数据流

整体架构图

NCT System ArchitectureSensory InputVision / Audio / TextMultimodal EncoderFeature ExtractionAttention Workspace (GWT)Head 1VisualHead 2EmotionHead 3TaskHead 4NoveltyMulti-Candidate CompetitionWC2C3C4WinnerTransformer-STDPHybrid LearningPredictive CodingFree Energy MinimizationΦ CalculatorIntegrated InformationLegend:Processing FlowAttention ModulationFeedback LoopWWinner CandidateKey Metrics: Φ=0.329 Accuracy=92% Latency<2ms

NCT 系统架构:多模态输入 → 特征编码 → Attention 工作空间(多候选竞争)→ 混合学习 + 预测编码 + Φ值计算

数据处理流程

📥
输入
多模态感官数据
🔧
编码
特征提取和投影
🧠
工作空间
多候选竞争与选择
📈
学习
STDP+Attention 更新
🎯
预测
自由能最小化
📤
输出
意识表征和行为

8 大核心模块详解

🎯

NCTManager

nct_manager.py

主控制器,协调所有模块的工作流程

核心职责

  • 初始化配置和模块加载
  • 管理处理周期(process_cycle)
  • 状态跟踪和日志记录
  • 异常处理和恢复机制

关键方法

__init__(config)process_cycle(sensory_data)get_state()reset()
⚙️

NCTConfig

nct_core.py

配置中心,定义所有超参数和架构设置

核心职责

  • 模型维度配置(d_model, n_heads, n_layers)
  • 多候选参数(n_candidates)
  • 学习率和优化器设置
  • γ同步频率等生物参数

关键属性

d_model=768n_heads=8n_layers=6n_candidates=4gamma_freq=40.0
🧠

AttentionWorkspace

nct_workspace.py

注意力工作空间,实现全局广播和多候选竞争

核心职责

  • 多头自注意力计算(8 头)
  • 显著性分数计算
  • Winner-take-all 竞争机制
  • 侧抑制和动态选择

关键方法

forward(x)compute_salience(candidates)select_winner(attention_weights)

核心优势

用 Transformer 注意力替代简单竞争,准确率提升 23%

📊

PhiCalculator

nct_metrics.py

Φ值计算器,度量整合信息(IIT 理论核心)

核心职责

  • 从 Attention Flow 计算Φ值
  • 随机二分分割近似算法
  • 互信息矩阵分析
  • 最小信息分割搜索

关键方法

compute_phi(attention_maps)find_min_partition(mi_matrix)calculate_mutual_information(matrix)

核心优势

O(n²) 复杂度,r=0.978 相关性,Φ=0.329 (d=768)

🔗

HybridLearning

nct_hybrid_learning.py

Transformer-STDP 混合学习机制

核心职责

  • STDP 时间依赖可塑性
  • 注意力梯度调制
  • 神经调质门控(DA/5-HT/NE/ACh)
  • 突触权重更新

关键方法

apply_stdp(pre_spike, post_spike)neuromodulate(delta_w, modulators)hybrid_update(local_delta, global_delta)

核心优势

Δw = (δ_STDP + λ·δ_attention) · η_neuromodulator

🎯

PredictiveCoding

nct_predictive_coding.py

预测编码模块,实现自由能最小化

核心职责

  • 生成自上而下的预测
  • 计算预测误差(自由能)
  • 更新隐变量减少误差
  • 层级化预测编码

关键方法

predict(latent_state)compute_free_energy(pred, actual)update_latents(error)

核心优势

自由能降低 83.0%

🌐

CrossModal

nct_cross_modal.py

跨模态融合模块,语义级多模态对齐

核心职责

  • Cross-Attention 特征融合
  • 模态间语义对齐
  • 注意力权重分配
  • 特征投影到共享空间

关键方法

fuse(modal1_features, modal2_features)align(multiple_modalities)compute_cross_attention(Q, K, V)

核心优势

NCC 从 0.6 提升至 0.82 (+42%)

GammaSync

nct_gamma_sync.py

γ同步机制,模拟 40Hz 振荡节律

核心职责

  • 生成γ相位信号(40Hz)
  • 相位锁定和同步
  • 更新周期控制(~25ms)
  • 跨脑区协调

关键方法

generate_phase(t)phase_lock(signals)compute_phase_difference(signal1, signal2)

架构设计原则

🧩

模块化设计

8 大模块职责清晰,低耦合高内聚,便于扩展和维护

🧬

生物启发

从神经科学理论汲取灵感,如 GWT、IIT、Predictive Coding

🔍

可解释性

注意力权重可视化,Winner 选择过程透明,Φ值可度量

📈

可扩展性

支持不同规模配置(d=256~1024+),适配多种硬件

性能优先

批量化架构,GPU 加速,梯度检查点降低内存占用

🔗

理论统一

首次将 6 大意识理论统一于 Transformer 框架

深入了解代码实现?

查看 API 文档和源代码,探索工程细节