バイト

提供: MonoBook
ナビゲーションに移動 検索に移動

バイト(byte)とは、コンピューターの世界で使われるデジタル情報の単位である。

一般的に8ビットを1バイトとすることが多い。歴史的には「1文字を表すのに用いるビット数」であり8ビットとは限らないこともあったが、多くの標準的な文字コードが英数字などを表すのに8ビットとなったことから「1バイト=8ビット」がデファクトスタンダードとなった。後にISO/IEC 80000-13という標準規格において「1バイトは8ビット」であると明示され決定的となった。

歴史[編集 | ソースを編集]

バイトという単位表現は1956年にいわゆるスーパーコンピューターのはしりであるIBM 7030 Stretch設計をしている際にヴェルナー·ブッフホルツによって生み出されたものだとされている。 [1] [2]

初期のコンピューターでは、計算には4ビットの二進化十進表現BDC)が主流で、また印刷の世界では米海軍の使っていた6ビットの文字コードが主流であった。これらは1963年に7ビットのASCIIコードへと統一された。ASCIIコードではアルファベットの大文字]小文字が区別され、また書き言葉用の記号やページ送りや行送りなどの制御文字も含まれた汎用的なものである。

一方で同じく1960年代に大ヒットしメインフレームの代名詞になるとともにデスマーチの末に「人月の神話」「銀の弾などない」「セカンドシステム症候群」など数々の名言を生みまくったIBM System/360では8ビットのEBCDICという独自コードを用いていた。 [3]

ASCIIEBCDIC文字コードとしてはまったく互換性はないが、せめてビット数だけでもということでASCII側が7ビットから8ビットに譲歩し、めでたく「1バイト=8ビット」という基礎が出来あったという。いわゆるユビキタスである。

そして1970年代に入ると「1バイト=8ビット」とする8ビットCPUであるIntel 8008が爆発的な大ヒットとなり、それは決定的なものになったという。

単位記号[編集 | ソースを編集]

バイトの単位記号はIEC80000-13およびIEEE 1541で規定されており、アルファベット大文字の「B」となっている。

なお、国際単位系(SI)ではアルファベット大文字の「B」はアレクサンダー·グラハム·ベルにちなんだ音量などの単位として使われる「ベル(10倍を意味するデシベルの方が有名)」であり、バイトを意味するものではないので注意する必要がある。

関連項目[編集 | ソースを編集]

参考文献[編集 | ソースを編集]