第1章 そのIT環境、いつまで持ちますか?
壊れていないから、壊れないと思っていた

早く出社する理由
月曜日の朝は、いつも少し早く会社に着く。
誰かに言われたわけではない。ただ、そうしないと気持ちが落ち着かないのだ。
事務所の鍵を開け、照明のスイッチを入れる。蛍光灯が一拍遅れて点灯し、静まり返った室内がゆっくりと明るくなる。その様子を見て、「今日も何も起きていない」と無意識のうちに確認している自分がいる。
私は総務課に所属している。給与計算や社会保険の手続き、備品管理といった、いわゆる総務の仕事を担当しているが、それと同時に社内のIT全般も任されている。
IT専任というわけではない。それでも、「パソコンが分かる人」という理由だけで、いつの間にかサーバーやネットワーク、業務システムの面倒を見る立場になっていた。
中小企業では、決して珍しい話ではないだろう。最初はパソコンの設定を頼まれただけだった。それが次第に、ファイルサーバー、VPN、業務アプリへと広がり、気がつけば「全部分かっている人」になってしまっていた。
机の横の壁には、A3で印刷したIT構成図が貼ってある。NAS、業務サーバー、VPN装置、拠点間回線。線と箱が複雑に絡み合い、決して美しい図ではない。
この構成図を作ったのは私だ。ただし、一度に完成させたわけではない。トラブルが起きるたび、業務が増えるたび、「とりあえず」で書き足してきた結果が、今の姿だった。

誰も全体を説明できなかった夜
二年前の冬、その「とりあえず」で支えてきた環境が、初めて限界を迎えた。
工場からの一本の電話で、空気が変わった。
「画面が固まって、入力できないんです」
電話をかけてきた工場長は、現場一筋の人間だ。システムの仕組みには興味がないが、「止まること」だけは絶対に許さない。現場が止まれば、そのまま会社が止まることを、誰よりもよく知っている。
最初は、よくあるトラブルだと思った。しかし、数分後、別の部署からも同じ連絡が入った。その瞬間、胸の奥がざわついた。VPNは生きている。回線も落ちていない。それでも、業務サーバーには接続できない。
ベンダーに電話をかけると、「うちの製品には問題ありません」と返ってくる。回線業者に確認しても、「通信は正常です」と言われる。誰も嘘は言っていない。だが、誰も全体を説明できない。
原因が分かったのは、夜になってからだった。VPN装置とサーバー設定の不整合。技術的には、決して難しい話ではない。それでも、復旧までにかかった時間は六時間。工場は止まり、現場は混乱し、管理職からは何度も電話が入った。
「いつ直る?」、「原因は何だ?」
その問いに、私は明確な言葉で答えることができなかった。

クラウドとの出会い
翌日、総務課長は言った。「今回は運が悪かったな」と責められなかった。むしろ、労われたと言っていい。だが、その言葉を聞いたとき、胸の奥に小さな違和感が残った。
これは運の問題なのだろうか。個人のスキルの問題なのだろうか。
そうではない、これは、構造の問題だ。
それからも、システムは動いている。大きな障害は起きていない。だから、日常は続いている。しかし、朝、誰もいない事務所でパソコンを立ち上げるたび、同じ問いが頭をよぎる。
「このIT環境は、いつまで持つのだろうか」
壊れていない。だから大丈夫だと、どこかで思い込んでいた。だが、壊れたときにどうにもならない構造であることだけは、はっきりと分かってしまった。
ちょうどその頃、社内で「クラウド」という言葉を耳にするようになった。経営会議で、ベンダーの提案で、業界の流れとして。それが、この状況から目を背けるための逃げ道になるのか、それとも、正面から向き合うためのきっかけになるのか。まだ、その違いは分からなかった。
ただ一つだけ確かなことがある。
この違和感を抱えたままでは、何も変わらないということだ。
コラム:「止まった瞬間、何が失われたのか」
これらの事例は、特別な企業の失敗談ではない。
人も時間も限られる中小企業の現場で、「今は動いているから」という判断の積み重ねが、
ある日、静かに限界を迎えただけの話だ。違和感に気づいたときこそが、考え直す最後の機会なのかもしれない。
- 技術そのものより 「構造」「判断」「説明できなさ」 が問題だったこと
- トラブル発生時に 誰も全体を説明できなかった こと
まさに、第1章で描いた違和感が、現実のビジネス影響として表面化した例である。
- 事例①
- 事例②
- 事例③
- 事例④
VPN障害で全拠点が停止、原因は「誰も見ていなかった設定」
製造業(従業員約150名)では、本社と工場をVPNで接続し、生産管理システムを運用していた。ある朝、全工場でシステムに接続できなくなり、ラインが停止。原因は、VPN装置の片系のみファームウェア更新が漏れていたことだった。冗長構成はあったが、構成を正確に把握している担当者は一人だけで、その担当者は当日不在。復旧まで約7時間を要し、当日の出荷はすべて翌日対応となった。
「冗長化している=安心」という思い込みと、構成の属人化が同時に露呈したケースである。
クラウド移行後も混乱が続いた理由は「目的が共有されていなかった」
サービス業(従業員約120名)では、オンプレミス環境の更改を機にクラウドへ移行した。しかし移行後もトラブル対応は減らず、「思ったほど楽にならない」という声が現場から上がった。原因を振り返ると、クラウド移行の目的が「老朽化対応」だけで、業務影響や障害時対応の改善が検討されていなかった。結果として、構成は変わっても運用は変わらず、責任の所在も曖昧なままだった。
場所を変えるだけでは、問題は解決しないことを示す典型例である。
サーバー老朽化は分かっていたが、止められなかった基幹業務
卸売業(従業員約80名)では、10年以上使い続けたオンプレミスサーバーで受発注システムを運用していた。保守切れは認識していたものの、「今まで動いているから」と更新は先送りされていた。ある月末、ディスク障害が発生し、バックアップからの復旧に失敗。受注データの一部が失われ、手作業での再入力に追われた。取引先への納期遅延と信用低下に直結し、営業部門からは「ITが原因で説明に回る羽目になった」と強い不満が出た。
問題は技術ではなく、判断を先延ばしにしてきた構造そのものだった。
「被害は軽微」だったはずの不正アクセスが、業務を止めた
サービス業(従業員約100名)では、社内ファイルサーバーへのアクセス制御を最低限の設定で運用していた。ある日、外部からの不正ログインが検知され、幸い情報漏えいは確認されなかったものの、調査と再発防止対応のためサーバーを一時停止する判断が下された。結果として、丸一日業務ファイルにアクセスできず、見積作成や請求処理が滞った。
問題は攻撃そのものより、「どこまで止めるべきか」「誰が判断するのか」を事前に決めていなかったことだった。
セキュリティインシデントは、被害の大小に関わらず、業務判断を迫る“経営課題”として現れる。
