SSブログ

仮想サーバ全盛のこの世の中で [ソフトウェア]

仮想サーバとはいえ、物理サーバの上に載っているんだけどね。まぁいろいろ面倒だよね、物理サーバ。実機があると何か重要なことをする時はテレワークでは心もとないので、出社してSSHとかしてしまう。まぁ再起動とか入ってブートできずコンソールを見に行かないといけない時も少なからずやあるので、そういう時は仮想サーバは楽でいいなぁと思ったりはする。

vmwareとか初めはMacのWindows利用のためにやっていたような気がするんだけど、IntelがCPUに仮想化機能を付けた頃からエミュレーションしなくてよくなったので普及が進んだ。そもそもエミュレーションの頃は遅くても当たり前だったり、MacのOS8とかで不安定なOSの上に、更に不安定なWindowsを載せるという非常に綱渡り的なことをやっていた。結局Macではそこまでしないとできないことが割と多かったという事だ。Webアプリも多い今となっては別にLinuxでもいいじゃんという事になるわけだが、OSXぐらいからマカーになった自分としては感慨深いものがある。

そもそも多コア化していく先に仮想化があったわけだが、黎明期の時はホストOS型だとかハイパーバイザー型だとかいろいろ言われていたけれど、結局住み分けたという感じはしなくもない。結局できる事は大した違いはなかったわけだしね。今ではメニーコアを前提としたソフトも少なくはないけれども、当時はそれほどなかったから余ったCPUリソースを使う理由としても良かったのかもしれない。

その他にもコンテナ仮想化はあって、Solarisの台数がひっ迫していた時に、コンテナ仮想化を使えばいいじゃない、という話になって使っていた。自分はその時はサーバ保守の仕事をしていたわけではなかったから、使う側としては何ら苦労もなく使っていたわけだが、概念も定着していなかった当時としては、運用も少し手間だっただろう。まぁ設定ができて動いてしまえば、サーバなど後は惰性でどうとでもなるわけだけど、そこまでがしんどいのではあるのよな。今のLinuxみたいに豊富に情報があるわけではなかっただろうし。そういえば、情報漏洩が起きたためにインターネットで検索もまともにできないところだったから、かなりしんどかっただろうなとは思う。

今時コンテナ仮想化といえばDockerだけれども、その頃はまだ黎明期で名前が聞いたことがあるくらいのものだった。興味でいくらかコンテナを立てたり壊したりしたが、そこまで頻繁に環境を変えることもなかったので、VirtualBoxでローカルでしこしこやっていればいいやと思った。Debian野郎だったのでProxMoxも少しやったけど、結局深くまでやることはなかった。


今では仮想サーバでは最大負荷に堪えられないとか、案外負荷がずっと続いていて仮想サーバにするメリットがそれほどないとかで、実機のサーバが会社にいくつかある。それらも問題がなければ、いずれ仮想サーバになってしまうのかもしれない。さすがに何テラもあるバックアップサーバを仮想化することにはならないとは思うけど、そういう特殊な状況を除いて物理サーバにしておくメリットというものは特になくなったのかもしれない。やはり集中して管理できた方が良いのだ。

IntelもCoreシリーズでメニーコアが流行る前は、Pentium Proとかで2ソケットとかそういう事しかできなかった。それもサーバ向けでコアごとにOSが金を取るというようなことをやっていた。黎明期ではなんにでも金を取る精神があるので、物事が一般化する前の常識というのは大体非常識であったりする。

そういやCeleron2枚差しでLinuxを使うってのがあったと思ったが、結局普通のWindowsでは使えなかったと思ったから見送った気がした。Linuxもまだメニーコアを意識していなかったから、それほど便利なものではなかったようだが。Celeronもオーバークロックが流行ったころでもド安定運用を心掛けていた。昔から冒険はしないたち。

それにしてもOSSが世界にこんなにも普及するとは思っても見なかった。GPLはLinux以外は死に体ですが、コピーレフトという概念がすごく印象に残っています。今ではあまりに使いにく過ぎてあんまり見ないですが、やはりOSSの礎となった感はあります。VMwareはプロプライエタリですが、多くの仮想化はOSSですしね。やはり自由があるというのはいいことです。

コメント(0) 
共通テーマ:パソコン・インターネット

コメント 0