イーサネット関係の教科書を読み始めた。
先ず出てくるのは、MACアドレスの話。
OUIが24ビットなのか、22ビットなのか、
説明文が理解できず。
イーサネットの送信が、1バイト毎であり、かつ、
下位のビットから順に送り出されていくため、
最初のオクテットの最後8ビット目の
I/G(Indivisual/Group)ビット
が先頭になって、0であればユニキャストを意味する、
という説明までは、分かった気がする。
問題は、次の7ビット目の
U/L(Unique/Local)ビット
の事で、これが0ならユニーク、1ならユーザが割り当てた
ローカル運用との事だが、このビットの説明、
検索すると、
G/L(Global/Local)ビット
と表記されているものが多数あり、それぞれの流派の
源が良く分からない。
しかも、両者は決して交わらない。なぜ表現が違っているか
の解説が見当たらないのである。
あと、この事に疑問を持った人も皆無っぽい。少なくとも検索から
はそう見て取れる。
この疑問は、OUIを取得した時のコードが、どういう形で、
登録されているのかという疑問から来る。
運用で予約されている、1オクテット目第7、8ビット目が
決まらないのならば、そんな中途半端な位置が不定の登録値は
どうなってんだろう?
ごくごく、ナイーブに考えてみて、そりゃ仮に両方「0」にすんじゃね?
なら、MACアドレスの第1オクテットの2文字目は、「0」「4」「8」「C」
の4パターンしかない筈だと思った。
この事を明示したページが一つだけ見つかったので多分この理解でいいのかも。
あと、「Google Patents」というところに、ある文書があって、その記述に、
U/L(Universal/Local)ビットを参照し、【略】。なお、U/LビットはG/Lビットと表記されてもよく、ユニバーサルアドレスはグローバルアドレスと表記されてもよい。
というくだりが見つかった。今の所唯一。
追記 2024.5.2Thu.「情報処理教科書 ネットワークスペシャリスト 20xx年版」には、
❝とも呼ばれる❞的に短く両方の表現を載せているようだ。