バイト
バイト(byte)とは、コンピューターの世界で使われるデジタル情報の単位である。
一般的に8ビットを1バイトとすることが多い。歴史的には「1文字を表すのに用いるビット数」であり8ビットとは限らないこともあったが、多くの標準的な文字コードが英数字などを表すのに8ビットとなったことから「1バイト=8ビット」がデファクトスタンダードとなった。後にISO/IEC 80000-13という標準規格において「1バイトは8ビット」であると明示され決定的となった。
目次
歴史
バイトという単位表現は1956年にIBM 7030 Stretchの設計をしている際にヴェルナー·ブッフホルツによって生み出されたものだとされている。 [1] [2]
初期のコンピューターでは、計算には4ビットの二進化十進表現(BDC)が主流で、また印刷の世界では米海軍の使っていた6ビットの文字コードが主流であった。
こららは1963年に7ビットのASCIIコードへと統一された。ASCIIコードではアルファベットの大文字]小文字が区別され、また書き言葉用の記号やページ送りや行送りなどの制御文字も含まれた汎用的なものである。
一方で同じく1960年代に大ヒットとなったIBM System/360は8ビットのEBCDICという独自コードを用いていた。 [3]
ASCIIとEBCDICは文字コードとしてはまったく互換性はないが、せめてビット数だけでもということでASCII側が7ビットから8ビットになり、めでたく「1バイト=8ビット」という基礎が出来あったという。いわゆるユビキタスである。
そして1970年代に入ると「1バイト=8ビット」とする8ビットCPUであるIntel 8008が爆発的な大ヒットとなり、それは決定的なものになったという。
単位記号
バイトの単位記号はIEC80000-13およびIEEE 1541で規定されており、アルファベット大文字の「B」となっている。
なお、国際単位系(SI)ではアルファベット大文字の「B」はアレクサンダー·グラハム·ベルにちなんだ音量などの単位として使われる「ベル(10倍を意味するデシベルの方が有名)」であり、バイトを意味するものではないので注意する必要がある。