パソコンの内部では、文字や数字などのデータは2進数で扱っています。2進数の1桁をビットと呼び、これがデータを扱うときの最小単位になります。パソコン内部のCPUやメモリーは電圧の高低でデータを表現しているので、2進数が使われるのです。

 このビット数を増やしていけば、扱える数が増えていきます。1ビットは0と1の2通りですが、2ビットでは、00、01、10、11の4通り、8ビットでは00000000から11111111までの256通り、32ビットなら約43億通りの数が扱えます。ビットでは大きい数を扱うときに、桁数が大きくなってしまうので、数ビットをまとめたバイトという単位がよく使われます。パソコンでは歴史的に8ビットを「1バイト」としています。ちなみにビットで表された数値をバイトに変換するときには、8で割ればよいのです。

【データの大きさを示す】
ビットは、コンピューターがデータを処理する最小単位。ビット量を増やせば、それだけ大きなデータを表せるようになる

 このビットやバイトがパソコンの中で、データの処理や、データの記録の単位になります。例えば32ビットCPUであれば、基本的に1度に32ビット分の計算を行うCPUですし、512MB(メガバイト)のメモリーであれば、512MB分のデータを記録できるメモリーということになります。なお、K(キロ)やM(メガ)、G(ギガ)、T(テラ)は補助単位と呼ばれ、1024を超えると、次に大きな補助単位が使われるようになります。1000ではなく1024が使われるのは、2進数の10乗(10桁増えるとき)が1024になるからです。

【バイトとは? キロとは?】
歴史的に、8ビットを便宜上1バイトとするのが習わし。バイト量が大きくなると桁数が増えて表記しづらくなることから、キロやメガに換算することが多い

 ややこしいのですが、通信で使われる速度の場合、1024でなく1000がよく使われます。