情報学の観点から見ると、「存在を仮定する」とは、膨大なデータの中に規則やまとまりを見出し、それを圧縮可能な形に書き直す操作です。
もし「存在」を仮定せずに世界を保存しようとすれば、ただのピクセルの集合=ビット列として記録するしかなく、膨大な情報が必要になります。
一方、「そこに1つの物体がある」と仮定すれば、その物体の位置・形・動きだけで世界を記述でき、必要な情報量は劇的に減ります。
では実際に、2次元の仮想世界を舞台に、この圧縮の効果を計算してみましょう。
情報の爆発
縦\( 2^n \)、横\( 2^n \)の白黒ピクセルからなる世界を考えます。さらに時間も\( 2^n \)ステップあるとしましょう。
すると、世界全体は
\( 2^n \times 2^n \times 2^n = 2^{3n} \) ビットで表現されます。
例えば\( n=8 \)なら、画面は\( 256 \times 256 \)ピクセルで256フレーム。これをそのまま保存すれば \( 2^{3 \times 8} = 2^{24} \)、つまり約1677万ビット(2MB弱) が必要です。
何も仮定しない世界は、まるで「情報の洪水」のように膨大です。
「存在」による情報の圧縮
そこに、1つの正方形が時間の推移とともに位置を変えることを考えます。何も仮定しなければ、この過程を記録するのに必要な情報量は、上の計算から約2MB弱です。
ところが「そこに1つの正方形の物体がある」と仮定した瞬間、必要な情報量は激減します。
世界全体を保存する代わりに、次の情報だけを記録すればよいからです。
- 初期位置\( (x, y) \)
- 一辺の長さ\( l \)
- 各時間ステップでの動き(上下左右+静止の5択)
初期状態の記述
x座標は\( 2^n \)通り、y座標も\( 2^n \)通りです。
したがって、座標の記述には
\( \log_{2}{2^n} =n \) ビットが必要です。xとyを合わせて\(n+n = 2n \) ビット。
さらに一辺の長さも\( 2^n \)通り取り得るので、必要ビット数は\( n \)。
よって初期状態の記述には
\( 2n + n = 3n \) ビットがあれば十分です。
動きの記述
物体は瞬間移動しないので、隣接する位置にしか動かすことができません。したがって、1ステップごとに「上下左右+静止」の5通りがあります。
時間は\( 2^n \)ステップなので、可能な動きの履歴は
\( 5^{2^{n}} \) 通りです。
したがって動きを記述するための情報量は
\( \log_{2}{5^{2^n}} = 2^n \cdot \log_{2}{5} \) ビットとなります。
全体の情報量
まとめると、物体の存在を仮定した場合の情報量は
\( 3n + 2^n \cdot \log_{2}{5} \) ビットです。
圧縮率
- 圧縮なし:\( 2^{3n} \) ビット
- 圧縮あり:\( 3n + 2^n \cdot \log_{2}{5} \) ビット
したがって圧縮率\( R(n) \)は
\( R(n) = \frac{ 2^{3n} }{ 3n + 2^n \cdot \log_{2}{5} } \)となります。
(例)\( n=8 \)の場合:
- 圧縮なし:\( 2^{24} = 16,777,216 \) ビット
- 圧縮あり:\( 3 \times 8 + 2^8 \cdot \log_{2}{5} \approx 619 \) ビット
圧縮率は
\( R(8) \approx \frac{16,777,216}{619} = 27103.7 ... \)つまり、2MBの動画データが、約\( \frac{1}{27000} \)の600ビットにまで縮むのです。
存在仮定OSとは
ここで見たように、「存在を仮定する」とは、世界を「ピクセルの集合」としてではなく「まとまり=物体」として捉えることです。それによって、膨大な情報を劇的に圧縮して扱えるようになります。
人間の認識も同じで、私たちは「存在仮定OS」を通じて、膨大な感覚入力を「物体」「人」「自己」などにまとめ上げています。
もしそれがなければ、世界は無意味なノイズの海にしか見えないでしょう。
情報の復元
ただし私たちが直接見ているのは、「初期位置や動き」といった圧縮データではありません。脳内の「存在仮定OS」は、それらを元に 世界をもう一度復元 しています。
私たちの意識に映る「縦\( 2^n \)×横\( 2^n \)のピクセル世界」は、実際には再構成されたイメージなのです。
この「再構成された世界」こそが、哲学で言う クオリア に相当すると考えられます。圧縮された符号から蘇る「主観的な体験のスクリーン」こそ、私たちが見ている世界なのです。
補足
本文では圧縮率を
\( R(n) = \frac{ 2^{3n} }{ 3n + 2^n \cdot \log_{2}{5} } \)と書きました。この分母のうち、¥( n \)が十分に大きくなると、\( 3n \)は\( 2^n \cdot \log_{2}{5} \)に比べて無視できるほど小さくなります。したがって、\( n \)が十分大きいとき
\( R(n) \approx \frac{ 2^{3n} }{ 2^n \cdot \log_{2}{5} } = \log_{5}{2} \cdot 2^{2n} \)と近似できます。したがって、圧縮率はおよそ
\( R(n) \approx 0.43 \times 2^{2n} \) 倍となります。なお、\( n > 10 \)ならば、誤差は2%以内におさまります。
ご意見、ご感想などはこちらへ

連絡先・お問い合わせ
.