2010年5月6日木曜日

本多庸悟 「情報の数学」再入門

2007 日刊工業新聞社

「情報」という言葉がいたるところで使われている。
同じような言葉に「データ」がある。情報とデータは同じ意味で使われることもあるが、データは単なる事実や材料として、情報のほうは意味や概念を持つ場合に使われることが多い。
言葉も情報であるが、はじめから定義されて作られたわけではないので、時代によって変わったり人によって振れたりする。
「情報」という言葉は、明治9年に軍事用語の訳語として初めて表れたとされている。戦後は、姿を消したが、その後、日常的な一般用語として再登場し、普及して現在に至っているという。いまでも、情報漏洩とか機密情報とかなにか怖い響きがあるのは、そのためだろうか。

アメリカのシャノンという学者は、情報の数学を創始したひとりである。
それによると、文字、数字、記号などのメッセージの集まりが情報になる。
つぎに、情報量とはメッセージを対数で表現したものである。2の8乗とか言う場合の8が対数である。
情報量に起こりうる確率を掛けたものからエントロピーという概念が導き出された。
わかりきった情報のエントロピーは小さく、どれがくるかわかりにくい情報ほど、エントロピーは大きい。
エントロピーは、もともと熱力学に由来する。熱力学でのエントロピーは、粒子の運動がもっともバラバラで、全体として混沌とした状態になったとき最大になる。情報のエントロピーは、メッセージが均等にバラバラになって、情報が何を意味しているのかわかりにくくなったとき最大になる。
通信工学における伝送量や雑音の問題に関連して使われているのがこのような情報の概念である。

情報という言葉はいろいろな意味で使われているが、情報があふれていることは事実である。そのため、情報が多すぎて処理する時間もなく、かんじんの判断は占い師に頼るとしたら残念なことである。情報はいくらでもあるはずなのに、一瞬先に何が起こるのかさえ知ることはできない。

0 件のコメント:

コメントを投稿