情報高度化の要因は

 Seshat"http://seshatdatabank.info/"は世界各地の歴史について一定の基準に基づいたデータ化を行う取り組みだ。Peter Turchinらが主導しているものだが、要するに歴史を定量的に分析する"https://blogs.yahoo.co.jp/desaixjp/56684713.html"ための幅広いデータ集として利用してもらうのが狙いだ。
 対象としているのは世界の30の地域"http://seshatdatabank.info/data/"で、それぞれについて産業革命直前から始め、データが得られる限り過去まで遡る方法で集計しているそうだ。古いものだと新石器時代まで遡るが、大半はもっと最近の時期からデータが得られるようになっている。
 具体的にはどのようなデータがあるのか。例えば「関西」"http://seshatdatabank.info/data/kansai.html"を見ると紀元前300年の弥生時代から1868年の徳川将軍時代までがデータの対象となっている。ではそれぞれの時代について、どのようなデータが集められているのだろうか。
 一例として古墳時代"http://seshatdatabank.info/data/polities/kofun-JpKofun"を見てみよう。基本的なデータに続いて「社会的複雑度」がまず登場。そこではまず政治体の領土面積(530年までは4000~6000平方キロメートル、それ以降は10万~15万平方キロメートル)、人口(初期の15万~20万人から末期は175万~275万人)など、具体的な推計値が載っている。これらは専門家の推計の中でも極端なものを除いた水準を掲載しているそうだ。
 続いて階層的複雑度。これは居住地や宗教、軍事、統治といった各分野でどれだけ階層化が進んでいるかを表したものだ。その次が専門分野で、兵士や司祭、士官といった専門家が存在しているかどうかをまとめ、さらに官僚制の性格として実績に基づく昇進や政府の建造物の存在を、さらに法律関連の判事や法廷の存在をまとめている。古墳時代においてその大半は「不明」となっている。
 また建造物についてもかなり細かいデータ化を行っている。これは建造物が後世まで残りやすく、データ化しやすいことが理由だろう。建物だけでなく輸送システム、鉱山や祭儀場など特殊な目的の場所が存在するかどうかもデータとしてまとめている。
 情報については計測システムの存在、筆記システム(表音文字と表意文字の違いまで含む)、実際に書かれた文章の種類(科学、聖典、宗教、哲学など)、貨幣を含む通貨システム、さらには郵便制度などの有無が記されている。そして文末にはソースとなっている史料を提示。データの中身が恣意的にならないようにとの対応だろう。
 実際には各分野について必ずその地域の歴史に関する「専門家」を配置し、内容に問題ないかどうかを調べているようだ。例えば元首政ローマについてのデータシート"http://seshatdatabank.info/wp-content/uploads/2015/09/Roman-Principate-Polity-Sheet.pdf"を見ると最初の方角にGarrett Faganという専門家の名がある。
 また元首政ローマにおいては古墳時代の関西ではデータ化されていなかった「軍事技術」「軍事組織」「戦争の性格」「戦争の強度」といった戦争関連、宗教などを含めた儀式関連、国家元首の権力に対する制限、法制度、性別や階級、人種に関する差別、社会的流動性、宗教、果てはウェルビーイングに至るまで、実に幅広い分野を対象としていることがわかる。

 ただしデータはそれだけでは価値を生まない。データを使って何をするかの方が重要だ。というわけで実際にSeshatのデータを使って何ができるかをTurchinがやってみせているのがこちらの論文"https://escholarship.org/uc/item/99x6r11m"だ。目的はあくまで「やってみせる」ことにあり、この論文で何かを主張するというところまでは行っていないが、分析内容がとても興味深いので紹介しておこう。
 分析しようとしているのは「情報」の複雑度をもたらす要因だ。まずは各地域のデータから情報の複雑度を算出する。一つは筆記法で、これはどのくらい複雑なシステムを使っているかに合わせて数値化している。何もなければゼロ、数を記録するアイテム(tally"https://en.wiktionary.org/wiki/tally")のみがあれば1といった具合に複雑さに合わせて数字を増やし、十分に長く書かれた文章があれば4としている。さらに交易に使われるリスト、カレンダー、聖典、歴史、哲学など9種類の文章が存在するかどうかも調べ、あれば「1」とする。トータルで複雑度は0から13までの範囲となる。
 一方、この情報の複雑さをもたらす要因になりそうなものとしてTurchinが取り上げたのはいくつもある。まず政治体のサイズとしてその人口、領土、及び首都の人口。これらのデータについては指数化したうえで分析に使っている。続いて階層的複雑度も使っている。ここでは統治、宗教、軍事それぞれの階層に加え、居住地階層も含めてその平均を使う。
 また兵士や司祭といった専門家の存否を含めた政府の複雑度、建造物などの存否を使ったインフラの複雑度も調べている。それぞれ度合いは11と12が上限だ。そして最後に通貨システムを洗練度に合わせてやはりランク付けする。何もない(ゼロ)から紙幣(6)までの範囲だ。それらに加えて、100年前の情報複雑度(論文中のLag1)、同200年前(Lag2)、そして最後に「系統発生」も分析対象に入れている。最後のものは言語学上のもので、要するに言語の系統的な近さを示す。
 以上のデータを基に、Turchinはそれぞれの要因が情報の複雑度にどのように影響を及ぼすかについて重回帰分析している。細かい分析手法については論文を読んでほしい、というか数学的な解説について説明できる力は私にはないのだが、欠落しているデータについて埋め合わせてみたりといろいろな手立てを使いながらn=456のデータ数を確保したようだ。
 結果はどうなったのか。まず線形モデルとして最も高い相関を示した10のモデルを紹介している。いずれもR自乗で0.91と極めて高い相関度を示しているものであり、それを赤池情報量規準に基づいて並べている(p48)。統計的な信頼度についてはそれなりだと思っていいのだろう。
 それによるとt値が最も高いのはLag1、次に高いのがLag2となっており、このあたりは不思議はない。その次に高いのが「系統発生」になるのは、「情報」を扱うのが言語であることを考えればあり得なくはない結果なのだが、一方でTurchinによると距離的な近さはほぼ影響がなかったようで、このあたりは興味深いところ。
 それ以外の要因でいくと、何よりマネーの高さが目立つ。その次が「政府」関連の複雑度で、一方むしろマイナスに響いているのが「インフラ」の複雑度となる。Turchin自身は政府の仕事が複雑になるにつれて高度な情報の取り扱いに関する需要が増えると予想していたようだが、実際には政府の仕事よりも金勘定の方こそが「情報」の複雑さをもたらす大きな要因になっているようだ。
 これは非線形モデル(p51)でも同じ。Lag1やLag2を除くと最もt値が高いのはやはりマネーで、その後に系統発生を挟んで政府の複雑度が来る。どうやら世の中において情報の高度化をもたらす最大の動機は金らしい。もしかしたら、人類ははるか昔から拝金主義だったと解釈することも可能かもしれない。金が絡めば複雑な情報をものともしない社会が太古の昔からごく最近に至るまで常に存在し続けてきたのだと考えると、これはなかなか凄い話だといえそうだ。
 ただしTurchinによればこの分析はあくまで一時的なものにすぎないそうだ。より詳細なデータが揃えば、それを使って違う結果が出てくる可能性がある。またマネーや政府の影響として算出されたものが、実はその背後にある「隠れた要因」を示したものにすぎないことも考えられる。だからここで結論に飛びつくのは早すぎる、というわけだ。
 学者としてはそう指摘するのが正しいのだろう。しかし単に趣味で読んでいる側からすれば、あくまで「現時点での」という留保が付くとはいえ、この分析結果は面白い。金は命の次に大事なものとはよく言われる話だが、実際に金が現代にまで至る情報の高度化をもたらした大きなインセンティブだったとすれば、まだ我々は金の力を過小評価していたのかもしれない。少なくとも拝金主義を安易に批判するのは控えた方がよさそうだ。
スポンサーサイト



コメント

非公開コメント

トラックバック