2023年03月04日(土) - 16:39 | カテゴリ:
Network
手軽に検証環境を組めるソフトウェアルータに浮気気味だが、
根っこはハードウェアルータ・スイッチが大好きな筆者。
電気代高騰の影響もありハードウェア好きには逆風が吹いているが、
実機が必要な検証の代表格にASICをフル活用した機器固有機能を使う物がある。
昨年の8月頃に”ns-lab BB”から退役したCatalyst 2960-Sは検証機でたまに使っているが、
夜遅い時間に起動テストするのは憚れるし何より電気代と場所も問題になる。
他の設備が排気ファンで轟音を立てているとは言っても、
ファンレス機器の手軽さには勝てないので良いスイッチが無いかと探していた。
そんな中、ふと見つけたのがCisco Catalyst 2960-Lだった。
ファンレスで48ポートなのがGoodだし、コレは何かのめぐり合わせと感じたので買ってきた。
………
中古で買ったネットワーク機器はコンデンサが破裂している物が稀にあるので、
本格的に流用するならクリーニングも兼ねてオーバーホールをする事が多い。
という事で『買ったネットワーク機器は分解せねば』となったので早速分解してみた。

今回の購入でCisco Catalyst 2960シリーズを半部以上制覇。
プラスシリーズとCシリーズは買った事が無いが、G・S・L・X・CXは弄った事になる。
2960は挙動が素直なのと、IOSが12と15に跨っているので動作検証に使いやすいのが嬉しい。
Catalyst 2960-LはSmall Businessに分類されるCisco製品で、ブランチオフィス向けのスイッチとなる。
他のCatalystスイッチと異なり、Web画面でカンタンに管理する事を念頭に置かれているのと、
筆者は使った事が無いが仮想スタック機能も搭載されているので、簡単な集中管理も出来る。

物理ポートは、RJ45×48とSFP×4のオーソドックスな構成。
業務用L2SWでは珍しく、管理用のFastEthernetが無い変わりに管理用USBポートが2個ついている。
良くあるシリアルコンソールもあるので、普段通りにロールオーバーケーブルを使って接続も出来る。

内部は電源を供給する基盤と、実際にパケットを転送するメイン基板に分かれている。
スカスカでメイン基板に個体コンデンサすら無いのと空きパターンが結構多く、
他のスイッチに設計した基盤を流用している様に感じた。


電源基盤は紙フェノールっぽい素材で、コンバータとアルミ電解コンデンサを使っている。
メイン基板に接続するケーブルが直付けでコスト削減の影響が見えるのと、
電源接続コネクタも半分が空きパターンなので別用途に設計した物を流用した様に感じる。
ヒートシンクの下にはスイッチ用のプロセッサが入っており、電源を入れると温かくなった。

チップはお馴染みのMarvell 88E1680-LKJ2を使っており、Catalyst 2960-Xと全く同じとなる。
部品実装数や基盤の複雑度は全く違うが、
チップ自体は同じなのでハードウェアレベルの転送速度なら2960-X同等と言える。
………
検証用スイッチなのでスネークテストまでは実施していないが、
曲がりなりにもCiscoなので早々壊れない筈。
一見すると自宅用途なら最強と思われるこの筐体だが、
唯一の問題は電源の設計が悪いのかコイル鳴きが酷かった。
排気ファンの低音は耐えられるが、コイル鳴きなど高音は勘弁して欲しいので、
やはり常設ではなく検証目的のL2スイッチになりそう。
L3ルーティングがソフトウェアルータに移ったとしてもアンダーレイには物理が必須なので、
ある程度は物理装置の知識も付けないと太刀打ちが出来ない。
IaaSのみ触っているならL2知識は不要論もチラホラ聞くが、
直接見えないIaaSだからこそ物理に近い部分を熟知しないとトラブった時に対応出来ない。
別途、自宅ラボで進めている仮想ルータ検証でトラブってL2知識をフル活用した事もあるし、
知識技術系のネタを継続で弄っていきたいので、今回の物も駆使してネタを蓄積する予定。
おもちゃとしては高いのでその分を使い倒したい所。
« 続きを隠す
2023年02月18日(土) - 16:31 | カテゴリ:
自作PC
世の中にはデータセンターで稼働するサーバを自宅に導入して遊ぶ人種が一定数いる。
筆者も同じような者で、Cisco機材などネットワーク機器をメインに自宅で動かして遊んでいる。
大体の人は騒音と戦いながら運用している筈だが、
稼働部位が存在する排気ファンは経年劣化から摩耗が生じてしまい、
常時動かすネットワーク機器の騒音爆上げに繋がる事が多い。
また、データセンターで稼働する事を前提とした物は冷却効率に特化した設計かつ、
市販品とは違うハイグレード品を使っている事が多く、自作PCパーツで代用が効かない事も多い。
結果、ファンが壊れた時の修理を自前で実施する必要が出てきてしまう。
サーバではあるが、昨年から自宅サーバに順次導入しているTM200がまさにコレで、
4ピンPWM対応の40×40×28mmというレアな代物なのに、
ファンコネクタが通常の3-4ピンコネクタよりも小さい上、
GPUに使われているコネクタよりも若干大きいサイズで市販品が合わない困った物だったりする。
掲示板や先駆者のブログにも詳細が書かれておらず、
元のファンを切断して他のファンを繋ぐ様に書かれている位だった。
それだと流石に困ってくるので、数個のコネクタを発注して実際に確かめてみた。
結果、ProLiant TM200に合致コネクタが判明した。
HPE ProLiant TM200に合致するコネクタは、Molex PicoBlade 1.25mm 4pin PWMだった。
実際に交換もしてみたが、凹凸含めピッタリ噛み合ったのでコレでコネクタ問題は解決できる。
極小コネクタになるのでケーブルをカシメるには相当のスキルが必要だが、
マルツを探すとEdgeKey製の結線済コネクタを売っている。
割高ではあるが、カシメに不慣れならPicoBladeコネクタだけは買ってしまうのを推奨。
………
排気ファンは特注品で、DELTA FFB0412UHN-D 5500RPMとなる。
似たような型番で、DELTA FFB0412UHN-Cなど英字違いが出てくるが、
コチラは1Uマウントサーバ用の10000RPM越え超高速ファンになるので騙されない様に注意。
試しに似たような型番の14000RPMファンをTM200に取りつけてテストしてみた所、
飛行機が離陸する様な爆音が常に起きていたので、自宅で使ったら確実に近所迷惑の音だった。
前述の通り、40x40x28mmかつPWM対応4ピンファンは特注品が多く早々売っていないので、
Alibabaから個人輸入するか、20mm厚のファンにスペーサを無理やり付けるのがセオリーになる。
ファン交換改造は放置中で他の事に手を出しているが、
ジャンク屋でパーツをかき集めていつかはチャレンジしたい所。
« 続きを隠す
2023年02月16日(木) - 23:55 | カテゴリ:
Linux
SDNと聞くと、ネットワークをソフトウェア制御する事を浮かべる人が多いはず。
2014~2015年頃にバズワードになって爆誕した後、巷で持て囃された後に衰退期を迎え、
EVPN・VXLANを引っ提げる事で、やっとネットワーク屋に迎えられた気がする。
そんなSDNだが、リソース集約とネットワークの仮想化と言われるだけあり、
高密度にリソースを集約する仮想サーバと相性が良かったりする。
AWSっぽいIaaSを構築出来るOpenStackも一種のネットワーク仮想化技術を用いているし、
VMwareも専用のSDNソリューションを抱えていたりする。
………
VMwareに年貢を払いたくな人向けのソリューションとして、
OSSのProxmoxという仮想サーバアプリケーションがある。
筆者も最近はProxmoxにハマっており、サーバを作ってはぶっ壊すを繰り返して遊んでいる。
Proxmoxでネットワークを組む場合、Linux SwitchかOpen vSwitchの何れかを使う事になるが、
ふと『Open vSwitchが使えるなら、EVPN・VXLANを喋れるのでは?』という疑問が生じた。
アプリケーションがあるならSDNコントローラも準備されていそうな気がしたので調査したら、
まさにVMwareっぽい仮想スイッチも搭載できる事がわかった。
やり方は公式ドキュメントにSDNオーバーレイを構築する設定方法がそのまま載っていた。
標準ではインストールされていないので表示もされないが、
“apt install”すると追加パッケージがインストールされてSDNが使える様になる。
# apt install libpve-network-perl ifupdown2
|
libpve-network-perlをインストールすると、Proxmoxのデータセンター画面にSDN項目が追加され、
EVPN・VXLANを直接設定出来る様になる模様。
設定箇所でオーバーレイネットワークを設定すると、ノード間でトンネルを直接張る様になる。
実際の処理速度やCPU負荷などは未知数だが、Proxmoxで手軽にSDNを組む場合には候補に挙がるはず。
テスト目的でSDNを作る場合、Cisco CSR 1000vやArista vEOSを用いてEVPNとVXLANを組む例が多いが、
Proxmoxで使おうとすると仮想スイッチの制御が煩雑になる。
煩雑な部分を排除しつつ簡単に組めるならメリットもあるので、採用例が今後増えるかもしれない。
とは言っても、ns-lab BBのサーバは仮想ホストはゲストサーバを動かす事に専念させて、
ネットワーク構築はゲストサーバ層で仮想ルータを動かすポリシーなので、実践投入は見送りになりそう。