問題
情報量のエントロピーの単位は何か。
選択肢
- 1ア バイト
- 2イ ビット
- 3ウ ワード
- 4エ オクテット
解答と解説を見る
正解
2. イ ビット
解説
シャノンの情報理論におけるエントロピー(情報量)の単位はビット(bit)です。確率1/2の事象が起こった時の情報量が1ビットとなります。
情報量のエントロピーの単位は何か。
正解
2. イ ビット
解説
シャノンの情報理論におけるエントロピー(情報量)の単位はビット(bit)です。確率1/2の事象が起こった時の情報量が1ビットとなります。
スキマ資格では基本情報の全640問を分野別・難易度別に体系的に学習できます。基本情報技術者は科目A(広く浅く)と科目B(プログラミング・アルゴリズム)の両輪での対策が必要です。