Data Center Architecture

最新のデータセンターアーキテクチャは、オンプレミスのインフラストラクチャから、ネットワーク、アプリケーション、ワークロードが複数のプライベートクラウドとパブリッククラウドで仮想化されているクラウドインフラストラクチャとオンプレミスシステムを接続するインフラストラクチャに進化しています。 この進化は、データセンターのすべてのコンポーネントがもはや同じ場所に配置されておらず、パブリックインターネットを介してのみ相互にアクセスできるようになったため、データセンターの設計方法に影響を与えています。

データセンターのネットワーキング、コンピューティング、ストレージテクノロジーにおける最新の進歩を見てみましょう。

デモをリクエストする IDC ハイブリッド データセンター バイヤーズ ガイド

データセンターコンピューティング

インフラストラクチャ コンポーネントの仮想化の進歩により、スタッフは必要に応じてシステムやアプリケーションを迅速に立ち上げ、需要を満たすことができます。 たとえば、ハイパーバイザー環境では、仮想マシン (VM) によって使用されるコンピューティング リソースとメモリ リソースがベアメタル ハードウェアのリソースから分離されます。 コンテナー システムは、アプリケーションを実行するための仮想オペレーティング システムを提供します。 VMとコンテナ化されたアプリケーションはどちらも移植可能であり、必要に応じてオンプレミスまたはパブリッククラウド上で実行できます。

 

仮想マシンとアプリケーションはインフラストラクチャとアプリケーションの迅速な配信を可能にしますが、エッジコンピューティングは別の問題を解決し、データが存在するエッジにコンピューティングリソースを移動することで、トランスポートで発生するレイテンシーと帯域幅の問題を軽減します。

 

エッジコンピューティングが解決する主なユースケースは、リモートのモノのインターネットデバイスによって生成されたデータの処理です。自動運転車やロボティクスで使用されるビデオ処理や分析などのリアルタイム アプリケーションは、エッジの近くで処理を行う必要があります。 分散型でコンパクトなマイクロデータセンターが出現しています。 これらのユニットは、データを収集し、リアルタイムで分析結果を必要とするエッジデバイスの近くでデータを収集、処理、分析、保存します。

 

1つのチップに複数のCPUを搭載したマイクロプロセッサは、1970年代初頭に発明されて以来、長い道のりを歩んできました。 時間の経過とともに、汎用CPUの処理速度は向上し、マイクロチップ上のトランジスタの数が2年ごとに倍増すると予測されるムーアの法則の恩恵を受けています。 ただし、CPU の構造は、一部のタスクに適していない場合があります。

 

人工知能(AI)と機械学習の出現により、 グラフィックプロセッシングユニット(GPU) は、ディープラーニングニューラルネットワークのトレーニングにおいてCPUよりも250倍高速であることがわかりました。 その構造により、大量のデータを並列処理するアルゴリズムの汎用中央処理装置(CPU)よりも効率的になります。

データセンターストレージ

自社と顧客のデータの両方を保存することは、データセンターの業務の中核をなす部分です。 ストレージが安価で効率的になるにつれて、ローカルおよびリモートバックアップの使用がより一般的になり、データストレージがさらに増加します。

 

データセンターの所有者は、失われたデータを回復するためのディザスタリカバリ計画を立てています。 バックアップ手法には、データを物理メディアに保存してから、ローカルまたはリモートでデータを保存する、データを別のサイトに直接転送する、またはデータをクラウドにアップロードするなどがあります。 たとえば、データは多くの場合、物理的に離れた複数のデータセンターに分散されています。 これにより、山火事、地震、その他の自然災害によってデータセンターが危険にさらされた場合、失われた情報をバックアップデータセンターのコンテンツから復元できます。

 

SDS(Software-Defined Storage)、NVMe、NVMe-oFなどのデータストレージテクノロジーの進歩により、データセンターがデータを保存、管理、使用する方法が変化しています。 ソフトウェア抽象化(SDS)によるデータ管理により、自動化が可能になり、データ管理の管理コストが削減されます。

 

NVM Express(NVMe)とソリッドステートドライブ(SSD)は、従来の回転式ディスクと、それらにアクセスするために使用されるSATAおよびSASインターフェイスを、より低いレイテンシーとより優れたパフォーマンスで置き換えます。 NVMeはストレージ・システム内のPCI Expressインターフェイスに適用されますが、NVMe over Fiberを使用すると、あるコンピュータがネットワークを介したリモート・ダイレクト・メモリ・アクセスを介して、別のコンピュータに接続されたブロックレベルのストレージ・デバイスにアクセスできます。 これにより、組織は、非常に低いレイテンシーで高パフォーマンスのストレージネットワークを構築できます。

データセンターネットワーク

データセンターの帯域幅要件は、アプリケーション、内部および外部システムの数、およびネットワークに接続されているユーザーによって決まります。 ストレージエリアネットワーク(SAN)、ローカルエリアネットワーク(LAN)、外部リンク、インターネットリンクのピークは、監視ツールを使用して監視し、次のサイズの回線への移行が必要な時期(たとえば、定期的に容量が50%に達した場合など)を測定する必要があります。

 

トラフィック フローのボトルネックは、どの接続ポイントでも発生する可能性があります。 特に、管理者は、ファイアウォール、ロードバランサー、IPS、WAFが全体的なスループット要件をサポートできることを確認する必要があります。 WAN 接続の場合、管理者は、音声とビデオの需要、インターネット アクセス、MPLS、および SD-WAN サービスの要件が満たされていることを確認するために、時折発生するトラフィックの急増をサポートするのに十分な帯域幅を計画する必要があります。 帯域幅は、ユーザーエクスペリエンスの悪さに比べれば、支払うべき小さな費用です。

 

1つのデータセンターネットワークアーキテクチャは、ネットワークスイッチの3つの層で構成されるツリーベースのネットワークトポロジです。 アクセスは、サーバがエッジスイッチに接続する最下位層です。

 

集約レイヤは、複数のアクセス レイヤ スイッチを相互接続する中間レベルのレイヤです。 アグリゲート層スイッチは、最上位のコア層スイッチによって相互に接続されます。 一般的な方法は、ファイアウォール、ロードバランサー、およびアプリケーションアクセラレーションボードをスイッチに導入することです。

 

コア層スイッチは、 データセンター をインターネットに接続します。 コアスイッチは高いスイッチング機能を備えており、トラフィックのバーストを処理できます。 コアスイッチが処理する必要がある個々のサーバーアドレスの数を最小限に抑えるために、コアスイッチはトラフィックをバッチまたはポッドにルーティングし、個々のサーバー要求を処理するのではなく、トラフィックをどのポッドに転送するかをコアが認識するだけでよいようにデータパケットをエンコードします。

 

データセンターネットワークにおける最新の進歩の1つは、 ハイパースケールネットワークセキュリティ テクノロジーです。 これは、システムへの需要の増加に応じて適切に改善およびスケーリングする機能です。 より多くのリソースをシステムに動的に割り当てることができるため、強力でスケーラブルな分散システムを実現できます。

 

最新のデータセンターネットワークでは、ネットワーク管理者がソフトウェアでネットワークリソースを構成、管理、保護、最適化できるようにするソフトウェア定義ネットワーク(SDN)も使用しています。 SDNは、ネットワークインフラストラクチャをアプリケーション、コントロールプレーン、データプレーンレイヤーに抽象化します。 これにより、ネットワークの制御が直接プログラム可能になり、ネットワークリソースのプロビジョニングとポリシーベースの管理を自動化できます。 SDNのメリットには、運用コストの削減、運用管理の一元化、必要に応じてセキュリティなどのサービスを拡張できることなどがあります。

データセンターアーキテクチャの進化は進行中です

コンピューティング、ストレージ、ネットワークテクノロジーの変化は、データセンターの設計と運用方法に劇的な影響を与えています。 テクノロジーが進化し続ける中、組織は、絶えず変化するデジタル攻撃対象領域を保護するためのソリューションを確実に導入する必要があります。

×
  Feedback
このWebサイトでは、機能、分析、およびマーケティング上の目的でCookieを使用しています。本Webサイトの使用を継続した場合、Cookieの使用に同意したことになります。詳細については、Cookieについてのお知らせをご覧ください。
OK