文档中心

Φ值计算实验

测量和分析不同配置下的整合信息Φ值

🔗

Φ值计算实验

测量和分析不同配置下的整合信息Φ值

⏱️ 25 分钟📊 高级🧠 意识理论

实验概述

Φ值(Phi)是整合信息论(IIT)中度量系统"意识程度"的核心指标。 传统 IIT 计算复杂度为 O(2^N),无法应用于大规模系统。 本实验将带你使用 NCT 的创新方法,从 Attention Flow 近似计算Φ值, 将复杂度降至 O(n²),同时保持与精确计算 r=0.978 的高相关性。

运行实验

方法 1:直接运行脚本

# 克隆仓库
git clone https://github.com/wyg5208/nct.git
cd nct

# 安装依赖
pip install torch numpy scipy matplotlib

# 运行Φ值计算实验
python experiments/test_multi_candidate.py

方法 2:使用 Python API

from nct_modules import NCTManager, NCTConfig
from nct_metrics import PhiCalculator

# 创建配置
config = NCTConfig(
    n_heads=8,
    d_model=768,
    n_layers=6
)

# 初始化模型
manager = NCTManager(config)

# 计算Φ值
calculator = PhiCalculator(manager)
phi_value = calculator.compute_phi(
    data=test_data,
    n_partitions=100,  # 随机二分分割次数
    method='attention_flow'  # 使用注意力流近似
)

print(f"Φ值:{phi_value:.3f}")

🧠 核心原理

📐 什么是Φ值?

Φ值是 Tononi 的整合信息论(IIT)中度量系统整合信息能力的指标。 它表示系统将信息整合为统一整体的能力,被认为是"意识水平"的数学度量。

⚡ NCT 的创新方法

传统 IIT 需要穷举所有可能的系统分割,复杂度为 O(2^N)。 NCT 使用以下创新:

  • Attention Flow 近似:从注意力权重推导信息流
  • 随机二分分割:用 100 次随机分割代替 2^N 次穷举
  • 复杂度降低:O(n²) vs O(2^N)
  • 高相关性:r=0.978 vs 精确计算

📊 计算公式

Φ = I_total - min_partition[I_A + I_B]

其中 I 表示互信息,min_partition 寻找最小信息分割(MIP)。 Φ值越大,表示系统整合程度越高。

实验结果

配置d_modeln_headsΦ值
小型25640.187
标准76880.329
大型1024120.451

📈 关键发现

🎯 维度影响

Φ值随 d_model 增加而提升,但增长速率递减。 d_model=768 时达到性价比最优平衡点。

🔍 注意力头数

更多注意力头允许更复杂的信息整合, 但超过 8 个头后收益递减。

⚡ 计算效率

近似方法比精确计算快 10^6 倍, 使得实时Φ值监测成为可能。

✅ 验证准确性

与精确计算相关性 r=0.978, 证明了近似方法的可靠性。