Φ值计算实验
测量和分析不同配置下的整合信息Φ值
🔗
Φ值计算实验
测量和分析不同配置下的整合信息Φ值
⏱️ 25 分钟📊 高级🧠 意识理论
实验概述
Φ值(Phi)是整合信息论(IIT)中度量系统"意识程度"的核心指标。 传统 IIT 计算复杂度为 O(2^N),无法应用于大规模系统。 本实验将带你使用 NCT 的创新方法,从 Attention Flow 近似计算Φ值, 将复杂度降至 O(n²),同时保持与精确计算 r=0.978 的高相关性。
运行实验
方法 1:直接运行脚本
# 克隆仓库
git clone https://github.com/wyg5208/nct.git
cd nct
# 安装依赖
pip install torch numpy scipy matplotlib
# 运行Φ值计算实验
python experiments/test_multi_candidate.py方法 2:使用 Python API
from nct_modules import NCTManager, NCTConfig
from nct_metrics import PhiCalculator
# 创建配置
config = NCTConfig(
n_heads=8,
d_model=768,
n_layers=6
)
# 初始化模型
manager = NCTManager(config)
# 计算Φ值
calculator = PhiCalculator(manager)
phi_value = calculator.compute_phi(
data=test_data,
n_partitions=100, # 随机二分分割次数
method='attention_flow' # 使用注意力流近似
)
print(f"Φ值:{phi_value:.3f}")🧠 核心原理
📐 什么是Φ值?
Φ值是 Tononi 的整合信息论(IIT)中度量系统整合信息能力的指标。 它表示系统将信息整合为统一整体的能力,被认为是"意识水平"的数学度量。
⚡ NCT 的创新方法
传统 IIT 需要穷举所有可能的系统分割,复杂度为 O(2^N)。 NCT 使用以下创新:
- • Attention Flow 近似:从注意力权重推导信息流
- • 随机二分分割:用 100 次随机分割代替 2^N 次穷举
- • 复杂度降低:O(n²) vs O(2^N)
- • 高相关性:r=0.978 vs 精确计算
📊 计算公式
Φ = I_total - min_partition[I_A + I_B]
其中 I 表示互信息,min_partition 寻找最小信息分割(MIP)。 Φ值越大,表示系统整合程度越高。
实验结果
| 配置 | d_model | n_heads | Φ值 |
|---|---|---|---|
| 小型 | 256 | 4 | 0.187 |
| 标准 | 768 | 8 | 0.329 |
| 大型 | 1024 | 12 | 0.451 |
📈 关键发现
🎯 维度影响
Φ值随 d_model 增加而提升,但增长速率递减。 d_model=768 时达到性价比最优平衡点。
🔍 注意力头数
更多注意力头允许更复杂的信息整合, 但超过 8 个头后收益递减。
⚡ 计算效率
近似方法比精确计算快 10^6 倍, 使得实时Φ值监测成为可能。
✅ 验证准确性
与精确计算相关性 r=0.978, 证明了近似方法的可靠性。