EMC VNX5200 レビュー
EMC の VNX5200 ストレージ コントローラは、同社の VNX2 製品のエントリ ポイントであり、オプションのファイルおよびユニファイド ストレージ機能を備えたブロック ストレージを備えています。 VNX5200 は、最大 125 台の 2.5 インチまたは 3.5 インチ SAS および NL-SAS ハード ドライブと SSD を管理でき、EMC の MCx マルチコア アーキテクチャで構築されています。 StorageReview Enterprise Test Lab のディレクターである Kevin O'Brien は、最近マサチューセッツ州ホプキントンにある EMC のデータ センターを訪れ、VNX5200 の実践的な時間とベンチマークを行いました。
EMC の VNX5200 ストレージ コントローラは、同社の VNX2 製品のエントリ ポイントであり、オプションのファイルおよびユニファイド ストレージ機能を備えたブロック ストレージを備えています。 VNX5200 は、最大 125 台の 2.5 インチまたは 3.5 インチ SAS および NL-SAS ハード ドライブと SSD を管理でき、EMC の MCx マルチコア アーキテクチャで構築されています。 StorageReview Enterprise Test Lab のディレクターである Kevin O'Brien は、最近マサチューセッツ州ホプキントンにある EMC のデータ センターを訪れ、VNX5200 の実践的な時間とベンチマークを行いました。
昨年 9 月、EMC は、ハードウェアを大幅に強化して、ユニファイド ストレージ アレイの人気の VNX 製品ラインを更新しました。 その結果、PCIe 2.0 から PCIe 3.0 への移行や、ストレージ プロセッサの複数の CPU コアをより有効に活用するための新しい MCx アーキテクチャ (マルチコア RAID、マルチコア キャッシュ、マルチコア FAST キャッシュを含む) などの機能強化を備えた VNX2 ラインナップが誕生しました。
これらの機能強化の多くは、ストレージ管理者がハイブリッド アレイ構成に移行し続ける中で、VNX プラットフォームがフラッシュをより有効に利用できるようにすることに重点を置いています。 EMC によると、現在、VNX2 システムの 70% 近くがハイブリッド フラッシュ構成で出荷されており、この変化により、キャッシュと階層化に対する EMC の FAST スイートの役割もより重要視されています。
以前にレビューした小型の VNXe3200 も VNX2 テクノロジーで更新されていますが、VNX5200 は、本社にプライマリ ストレージ システムを必要とする中規模市場の顧客や、VNXe3200 が処理できるものよりも堅牢なリモート/支社のニーズ向けに設計されています。 VNX5200 は、ブロック、ファイル、またはユニファイド ストレージ用に構成でき、3U、25 個の 2.5 インチ EMC ディスク プロセッサ エンクロージャ (DPE) シャーシを利用します。 VNX5200 のストレージ プロセッサ ユニットには、16 GB の RAM を備えた 1.2 GHz、4 コア Xeon E5 プロセッサが組み込まれており、FC、iSCSI、FCoE、および NAS 接続で最大 125 台のドライブを管理できます。
VNX2 ファミリには現在、VNXe3200 および VNX5200 よりも大規模な規模向けに設計された 5 つのストレージ システムも含まれています。
VNX5200 ブロック ストレージは、6Gb SAS ドライブ トポロジを備えたデュアル VNX ストレージ プロセッサを搭載しています。 VNX2 導入では、1 つ以上の Data Mover と 1 つのコントローラ ユニットを使用して、NAS サービスを提供できます。 VNX シリーズの他のメンバーと同様、VNX5200 は、Data Mover とブロック ストレージ プロセッサの両方に UltraFlex I/O モジュールを使用します。 VNX5200 は、最大 3 つの Data Mover と、Data Mover ごとに最大 3 つの UltraFlex モジュールをサポートします。
MCx マルチコア機能
VNX はマルチコア プロセッサ テクノロジーが普及する以前から存在しており、前世代のプラットフォームは動的な CPU スケーリングを活用できる基盤に基づいて構築されていませんでした。 VNX1およびCLARiX CXのオペレーティング環境であるFLAREでは、RAIDを含むサービスを特定のCPUコアで実行できましたが、FLAREのシングルスレッドパラダイムは、多くのコア機能が最初のCPUコアにバインドされていることを意味しました。 たとえば、すべての受信 I/O プロセスは、他のコアに委任される前にコア 0 によって処理され、ボトルネック シナリオが発生しました。
MCx は、EMC が特徴とする水平マルチコア システム スケーリングを実装しており、これにより、すべてのサービスをすべてのコアに分散できます。 VNX2 と VNXe3200 の両方で利用できるこの新しいアーキテクチャでは、たとえばフロントエンドのファイバ チャネル ポートを複数のプロセッサ コアに均等に分散できるため、受信 I/O プロセスがボトルネックになる可能性が低くなります。 MCx は、優先コアの概念を通じて I/O コア アフィニティも実装します。 フロントエンドとバックエンドのすべてのポートには、優先コアと代替コアの両方の割り当てがあります。 システムは、コア間でのキャッシュとコンテキストのスワップを回避するために、リクエストの発信元と同じフロントエンド コアを使用してホスト リクエストを処理します。
新しい MCx アーキテクチャの主な利点は、対称アクティブ/アクティブ LUN のサポートです。これにより、ホストはアレイ内の両方のストレージ プロセッサを介して LUN に同時にアクセスできます。 FLARE の非対称実装とは異なり、対称アクティブ/アクティブ モードでは、プライマリ ストレージ プロセッサに更新を送信することなく、両方の SP が LUN に直接書き込むことができます。
現在、VNX2 システムは、クラシック RAID グループ LUN の対称アクティブ/アクティブ アクセスをサポートしていますが、プライベート プール LUN のアクティブ/アクティブ アクセスはサポートしていないため、代わりに非対称アクティブ/アクティブ モードを使用できます。 プライベート プール LUN または「クラシック LUN」は、現在、VNX RecoverPoint スプリッター以外のデータ サービスを使用する場合、対称アクティブ/アクティブ モードを利用できません。
MCx アーキテクチャとフラッシュ メディア ストレージ間の VNX5200 の魅力的な相乗効果の 1 つは、システムによる EMC FAST Suite のサポートです。これにより、管理者はフラッシュ ストレージ メディアを活用して、異種ドライブ間でアレイのパフォーマンスを向上させることができます。 FAST Suite は、フラッシュを使用してストレージ パフォーマンスを高速化するための 2 つのアプローチ (キャッシュと階層化) を統合ソリューションに統合します。 FAST Suite への VNX2 アップデートには、階層化の粒度が 4 倍向上し、新しい eMLC フラッシュ ドライブがサポートされるようになりました。
VNX FAST Cache では、非常にアクティブなデータを処理し、ワークロードのスパイクに動的に調整するために、最大 4.2 TB の SSD ストレージを利用できます。ただし、VNX5200 のキャッシュ サイズの上限は 600 GB です。 データが古くなり、時間の経過とともにアクティブでなくなると、FAST VP は、管理者が定義したポリシーに基づいて、高パフォーマンスのドライブから大容量のドライブまで 256 MB 単位でデータを階層化します。
EMC VNX5200の仕様
設計と構築
VNX の用語では、ストレージ導入は複数の統合されたラック コンポーネントで構成されます。 コントローラー コンポーネントは、ドライブ ベイを組み込まないストレージ プロセッサ エンクロージャ (SPE)、またはこの VNX5200 のように内部ストレージを提供するディスク プロセッサ エンクロージャ (DPE) のいずれかです。 VNX ディスク アレイ エンクロージャ (DAE) を使用して、追加のストレージ容量を組み込むことができます。
SPE には、デュアル SAS モジュール、デュアル電源、ファン パックに加えて、VNX ストレージ プロセッサが組み込まれています。 ディスク プロセッサ エンクロージャ (DPE) には、エンクロージャ、ディスク モジュール、ストレージ プロセッサ、デュアル電源、および 4 つのファン パックが含まれます。 DAE を使用してストレージを追加するには、デュアル SAS リンク コントロール カードとデュアル電源を備えた 15 個の 3.5 インチ、25 個の 2.5 インチ、または 60 個の 3.5 インチ ドライブ ベイを使用できます。
VNX ストレージ プロセッサは、ストレージ プロセッサ エンクロージャの一部であるか、ディスク プロセッサ エンクロージャの一部であるかに関係なく、外部ホストへのデータ アクセスを提供し、アレイのブロック ストレージとオプションの VNX2 ファイル ストレージ機能を橋渡しします。 VNX5200 は、EMC のさまざまな UltraFlex IO モジュールを利用して接続をカスタマイズできます。
UltraFlex ブロック IO モジュールのオプション:
ファイル ストレージまたはユニファイド ストレージ用に VNX5200 を構成するには、1 つ以上の Data Mover ユニットと連携して使用する必要があります。 VNX Data Mover Enclosure(DME)のサイズは 2U で、Data Mover を収容します。 Data Mover は、Data Mover ごとに 6GB RAM を備えた 2.13 GHz、4 コア Xeon 5600 プロセッサを使用し、Data Mover ごとに最大 256 TB のストレージ容量を管理できます。 Data Mover エンクロージャは、1 つ、2 つ、または 3 つの Data Mover で動作できます。
Control Station のサイズは 1U で、フェイルオーバーの制御を含む管理機能を Data Mover に提供します。 Control Station は、冗長性を確保するためにセカンダリ Control Station とともに導入できます。 UltraFlex ファイル IO モジュールのオプションは次のとおりです。
管理およびデータ サービス
VNX ファミリは、EMC の Unisphere 管理ソフトウェアを使用します。 Unisphere に対する全体的な印象は、IT ジェネラリストがアクセスできるクリーンでよく整理されたインターフェイスを提供すると同時に、経験豊富なストレージ管理者がシステムの全機能にアクセスできるというものです。
Unisphere には、(1) 指定された時間が経過した後、または (2) スナップショットのストレージ スペースがストレージ容量の指定された割合を超えた場合にスナップショットを削除する自動削除ポリシーの構成オプションを含むスナップショット機能が組み込まれています。 VNX スナップショットでは、EMC のシン プロビジョニングと書き込み時のリダイレクト テクノロジーを利用して、保存されたスナップショットの速度を向上させ、ストレージ要件を削減できます。
VNX は、比較的非アクティブな LUN およびファイル用に設計されたブロックおよびファイル圧縮アルゴリズムを使用し、圧縮と重複排除の両方の操作をパフォーマンスのオーバーヘッドを削減してバックグラウンドで実行できるようにします。 VNX の固定ブロック重複排除は、仮想マシン、仮想デスクトップ、テスト/開発環境などのシナリオ向けに 8KB の粒度で構築されており、重複排除から多くのメリットが得られます。 重複排除はプール LUN レベルで設定でき、シン LUN、シック LUN、および重複排除された LUN を単一のプールに保存できます。
Unisphere Central は、リモート オフィスやブランチ オフィスに展開されているシステムなど、最大数千の VNX および VNXe システムを一元的に監視するマルチボックスを提供します。 Unisphere スイートには、問題の診断、傾向分析、容量計画を容易にするために、ストレージ使用率とワークロード パターンを監視する VNX 監視およびレポート ソフトウェアも含まれています。
仮想化環境では、VNX5200 は、プロビジョニング、管理、クローン作成、重複排除のために EMC の VMware vSphere 5 用 Virtual Storage Integrator を導入できます。 VMware の場合、VNX5200 は VAAI および VASA の API 統合を提供し、Hyper-V 環境ではオフロード データ転送およびファイルのオフロード コピー用に構成できます。 EMC Storage Integrator は、Hyper-V および SharePoint のプロビジョニング機能を提供します。 EMC Site Recovery Manager ソフトウェアは、災害復旧状況でもフェイルオーバーとフェイルバックを管理できます。
VNX5200 から VNX8000 までの VNX2 アレイは、[email protected] という名前の EMC の新しいコントローラ ベースの保存データ暗号化を提供し、すべてのユーザー データをドライブ レベルで暗号化します。 [email protected] は AES 256 暗号化を使用しており、FIPS-140-2 レベル 1 準拠の検証待ちです。 新しい [email protected] VNX アレイには暗号化ハードウェアが同梱されており、既存の VNX2 システムは現場でアップグレードして [email protected] をサポートし、バックグラウンド タスクとして既存のストレージを無停止で暗号化できます。
[email protected] は、ディスクごとに一意のキーを持つ通常のデータ パス プロトコルを使用して、アレイに書き込まれるすべてのデータを暗号化します。 何らかの理由でドライブがアレイから取り外された場合、ドライブ上の情報は理解できなくなります。 [email protected] には、RAID グループまたはストレージ プールが削除されると暗号化キーも削除されるため、暗号化消去機能も組み込まれています。
VNX2 は、ミラー化された書き込みキャッシュ機能を提供します。各ストレージ プロセッサには、LUN のプライマリ キャッシュ データと、ピア ストレージ プロセッサのキャッシュのセカンダリ コピーの両方が含まれます。 RAID レベル 0、1、1/0、5、および 6 は同じアレイ内に共存でき、システムのプロアクティブなホット スペア機能によりデータ保護がさらに強化されます。 このシステムは、統合されたバッテリ バックアップ ユニットを使用して、キャッシュのデステージングや、停電時の正常なシャットダウンに関するその他の考慮事項を提供します。
ローカル保護は Unisphere のポイントインタイム スナップショット機能を通じて利用でき、継続的なデータ保護は RecoverPoint ローカル レプリケーションを通じて利用できます。 EMC の VPLEX を使用すると、データ センター内およびデータ センター全体で継続的な可用性を拡張できます。 EMC によると、同社は RecoverPoint Continuous Remote Replication ソフトウェアのインスピレーションとしてテレビ DVR を使用したとのことです。
Replication Manager と AppSync は、Data Domain、Avamar、Networker などの EMC バックアップおよびリカバリ ソリューションを使用してアプリケーションと一貫した保護を提供し、バックアップ ウィンドウとリカバリ時間を短縮します。
バックグラウンドとストレージメディアのテスト
当社は、管理者や機器の入手責任者が、公開された結果が達成された条件を公正に評価できるように、ラボ環境の目録、ラボのネットワーク機能の概要、およびテスト プロトコルに関するその他の詳細を公開しています。 私たちの独立性を維持するために、私たちのレビューは、私たちがテストしている機器のメーカーによって支払われたり、管理されたりすることはありません。
EMC VNX5200 のレビューは、通常の機器の評価方法と比較して、かなりユニークなテスト アプローチとして際立っています。 当社の標準的なレビュー プロセスでは、ベンダーからプラットフォームが出荷され、それを当社の固定テスト プラットフォームに接続してパフォーマンス ベンチマークを行います。 VNX5200 では、サイズと複雑さ、および初期セットアップのため、このアプローチを変更し、レビュー担当者と機器を EMC のラボに派遣する必要がありました。 EMC は、iSCSI および FC テストに必要な機器とオプションを備えた VNX5200 を準備しました。 EMC は独自の専用 8Gb FC スイッチを供給しましたが、当社はイーサネット接続用に Mellanox 10/40Gb SX1024 スイッチの 1 つを導入しました。 システムに負荷をかけるために、従来のラボ環境で使用していたハードウェア仕様を超える EchoStreams OSS1A-1U サーバーを利用しました。
EchoStreams OSS1A-1U 仕様:
VNX5200 の評価では、EMC のお客様が本番環境で VNX2 システムを導入する方法を反映する 5 つの構成にわたる合成ベンチマークでパフォーマンスを比較します。 各構成では、サイズが 25 GB の 8 つの LUN を利用しました。
各構成には 24 台のドライブが組み込まれており、運用設定での展開で最も一般的な RAID 構成が使用されています。
エンタープライズ総合ワークロード分析
各 fio 合成ベンチマークを開始する前に、私たちのラボでは、スレッドごとに 16 の未処理のキューを備えた 16 スレッドの高負荷下でデバイスを定常状態に事前調整します。 次に、ストレージは複数のスレッド/キュー深さプロファイルを使用して設定された間隔でテストされ、軽い使用状況と重い使用状況でのパフォーマンスが示されます。
プレコンディショニングおよび一次定常状態テスト:
この総合分析には、メーカーの仕様やベンチマークで広く使用されている 4 つのプロファイルが組み込まれています。
4K ワークロード向けに事前調整した後、VNX5200 に一次テストを実施しました。 そのため、SSD で構成し、ファイバー チャネル経由でアクセスした場合、読み取り IOPS が 80,472、書き込み IOPS が 33,527 でした。 RAID10 で同じ SSD を使用すると (ただし、今回は iSCSI ブロック レベルのテストを使用しました)、VNX5200 は読み取り 37,421 IOPS と書き込み 22,309 IOPS を達成しました。 ファイバー チャネル接続を使用して RAID5 の 15K HDD に切り替えると、読み取り IOPS が 12,054、書き込み IOPS が 3,148 であったのに対し、10K HDD 構成では読み取り IOPS が 7,688、書き込み IOPS が 2,835 に達しました。 同じ接続タイプの RAID6 構成で 7K HDD を使用した場合、VNX5200 は読み取り 4,390 IOPS、書き込み 1,068 IOPS を記録しました。
結果は平均レイテンシーにおいてほぼ同じでした。 RAID10 で SSD を構成し、ファイバー チャネル接続を使用した場合、読み取りは 3.18 ミリ秒、書き込みは 7.63 ミリ秒でした。 iSCSI ブロック レベルのテストで同じ SSD を使用したところ、VNX5200 は読み取り 6.84 ミリ秒、書き込み 11.47 ミリ秒を誇りました。 ファイバ チャネル接続を使用して RAID5 の 15K HDD に切り替えると、平均遅延は読み取り 21.23 ミリ秒、書き込み 81.31 ミリ秒でしたが、10K HDD 構成では読み取り 33.29 ミリ秒、書き込み 90.31 ミリ秒でした。 同じ接続タイプの RAID6 構成で 7K HDD に切り替えると、VNX5200 は読み取り 58.29 ミリ秒、書き込み 239.64 ミリ秒を記録しました。
次に、最大レイテンシのベンチマークに移ります。 RAID10 で SSD を構成し、iSCSI ブロックレベルのテストを使用した場合、読み取りは 197 ミリ秒、書き込みは 421.8 ミリ秒でした。 同じ SSD を使用していますが、今回はファイバー チャネル接続を使用しており、VNX5200 は読み取り 202.1 ミリ秒、書き込み 429.2 ミリ秒を誇りました。 ファイバ チャネル接続を使用して RAID5 の 15K HDD に切り替えると、最大遅延時間は 1,311.3 ミリ秒の読み取りと 1,199.2 ミリ秒の書き込みが記録されましたが、10K HDD 構成では 2,687.8 ミリ秒の読み取りと 2,228.1 ミリ秒の書き込みが記録されました。 同じ接続タイプの RAID6 構成で 7K HDD に切り替えると、VNX5200 は読み取り 3,444.8 ミリ秒、書き込み 2,588.4 ミリ秒を記録しました。
最後の 4K ベンチマークは標準偏差で、VNX5200 のパフォーマンスの一貫性を測定します。 当社の iSCSI ブロック レベル テストを使用して RAID10 で SSD を構成した場合、VNX5200 は読み取り 3.30 ミリ秒、書き込み 12.06 ミリ秒を記録しました。 ファイバー チャネル接続で同じ SSD を使用すると、読み取り 9.20 ミリ秒、書き込み 14.32 ミリ秒が示されます。 ファイバ チャネル接続を備えた RAID5 の 15K HDD に切り替えると、読み取り 25.93 ミリ秒、書き込み 120.53 ミリ秒が記録されましたが、10K HDD 構成では読み取り 35.37 ミリ秒、書き込み 175.66 ミリ秒が記録されました。 同じ接続タイプの 7K HDD RAID6 構成を使用した場合、VNX5200 は読み取り 52.75 ミリ秒、書き込み 254.55 ミリ秒を記録しました。
次のベンチマークでは、8K の転送サイズで 100% の読み取り操作と 100% の書き込み操作で構成されるシーケンシャル ワークロードを使用します。 ここで、VNX5200 は、RAID5 ファイバー チャネル接続で 10K HDD を構成した場合、読み取り IOPS 178,959、書き込み IOPS 76,022 を記録しました。 ファイバ チャネル接続を備えた RAID5 で 15K HDD を使用すると、読み取り IOPS が 176,895、書き込み IOPS が 77,505 であることがわかります。 ファイバー チャネル接続を使用した RAID10 の SSD への切り替えでは、読み取り 169,833 IOPS と書き込み 74,470 IOPS を記録しました。一方、SSD iSCSI ブロックレベルのテストでは、読み取り 69,303 IOPS と書き込み 40,379 IOPS を示しました。 ファイバ チャネル接続を備えた RAID6 構成で 7K HDD を使用した場合、VNX5200 は読み取り 75,982 IOPS と書き込み 76,122 IOPS を記録しました。
次の一連のワークロードは、最大 16 スレッド 16 キューまでの 8,000 の読み取り (70%) および書き込み (30%) 操作の混合で構成されます。最初のワークロードはスループットです。 ファイバ チャネル接続を使用して RAID10 で SSD を構成した場合、VNX5200 は 16T/16Q で 8,673 IOPS ~ 41,866 IOPS の範囲を記録しました。 iSCSI ブロックレベルのテストで同じ SSD を使用すると、6,631 IOPS ~ 28,193 IOPS の範囲が示されました。 ファイバー チャネル接続を備えた RAID5 の 15K HDD に切り替えると、1,204 IOPS と 6,411 IOPS の範囲が記録されましたが、10K HDD 構成では 16T/16Q で 826 IOPS と 5,113 IOPS が記録されました。 同じ接続タイプの 7K HDD RAID6 構成を使用した場合、VNX5200 は 267 IOPS ~ 2,467 IOPS の範囲を記録しました。
次に、平均レイテンシーを調べました。 ファイバ チャネル接続を使用して RAID10 で SSD を構成した場合、VNX5200 は 16T/16Q で 0.45 ミリ秒から 6.11 ミリ秒の範囲を記録しました。 iSCSI ブロックレベルのテスト中に同じ SSD を使用すると、0.59 ミリ秒から 9.07 ミリ秒の範囲が示されます。 ファイバ チャネル接続を備えた RAID5 の 15K HDD への切り替えでは、3.31 ミリ秒から 39.89 ミリ秒の範囲が記録されましたが、10K HDD 構成では、最初は 4.83 ミリ秒、16T/16Q までに 49.97 ミリ秒を記録しました。 同じ接続タイプの 7K HDD RAID6 構成を使用した場合、VNX5200 は 14.93 ミリ秒から 103.52 ミリ秒の範囲を記録しました。
最大遅延の結果を見ると、ファイバー チャネル接続を使用して RAID10 で SSD を構成した場合、VNX5200 は 16T/16Q で 27.85 ミリ秒から 174.43 ミリ秒の範囲でした。 iSCSI ブロックレベルのテストで同じ SSD を使用すると、最大遅延が 31.78 ミリ秒から 134.48 ミリ秒の範囲であることがわかりました。 ファイバー チャネル接続を備えた RAID5 の 15K HDD への切り替えでは、108.48 ミリ秒と 2,303.72 ミリ秒の範囲が記録されましたが、10K HDD 構成では 16T/16Q で 58.83 ミリ秒と 2,355.53 ミリ秒が記録されました。 同じ接続タイプの 7K HDD RAID6 構成を使用した場合、VNX5200 の最大遅延範囲は 82.74 ミリ秒から 1,338.61 ミリ秒でした。
次のワークロードは、8k の 70% 読み取り操作と 30% 書き込み操作の標準偏差を分析します。 ファイバ チャネル接続を使用して RAID10 で SSD を使用した VNX5200 は、16T/16Q でわずか 0.18 ミリ秒から 10.83 ミリ秒の範囲を記録しました。 iSCSI ブロックレベルのテストで同じ SSD を使用すると、遅延の一貫性が 0.21 ミリ秒から 11.54 ミリ秒の同様の範囲であることがわかりました。 ファイバ チャネル接続を備えた RAID5 の 15K HDD への切り替えでは、3.48 ミリ秒から 56.58 ミリ秒の範囲が記録されましたが、10K HDD 構成では、最初は 2.5 ミリ秒、16T/16Q までに 66.44 ミリ秒でした。 同じ接続タイプの 7K HDD RAID6 構成を使用した場合、VNX5200 は 7.98 ミリ秒から 110.68 ミリ秒の標準偏差範囲を示しました。
最終的な合成ベンチマークでは、シーケンシャル 128k 転送と 100% 読み取りおよび 100% 書き込み操作のワークロードを利用しました。 このシナリオでは、iSCSI ブロック レベルのテストを使用して SSD を構成した場合、VNX5200 は読み取り 2.84 GB/秒、書き込み 1.26 GB/秒を記録しました。 ファイバ チャネル接続を備えた RAID5 で 15K HDD を使用すると、読み取り 2.48GB/s、書き込み 2.33GB/s が示されます。 RAID10 の SSD (今回はファイバー チャネル接続を使用) に戻すと、読み取り 2.48GB/秒、書き込み 3.06GB/秒を記録しました。 ファイバ チャネル接続を備えた RAID6 構成で 7K HDD を使用した場合、VNX5200 は読み取り 2.47GB/秒、書き込み 2.68GB/秒を記録し、10K HDD 構成では読み取り 2.47GB/秒、書き込み 3.22GB/秒を記録しました。
結論
EMC の VNX エコシステムはエンタープライズ ストレージ市場で十分に確立されていますが、VNX2 は、プロセッサ、フラッシュ、ネットワーキング テクノロジーの進歩を最大限に活用するために、VNX アーキテクチャを完全に見直したいという同社の意欲を反映しています。 小規模な導入を指向している VNXe3200 と同様に、VNX5200 も、EMC が VNX ファミリの大規模システムの費用を正当化できないかもしれないが、それでもすべてのシステムを必要とする中規模市場の企業やリモート/ブランチ オフィスに注目していることを示しています。企業のメリットの一部。
VNX5200 を FAST Suite と組み合わせて使用すると、フラッシュ キャッシュと階層化を連携して提供できます。この組み合わせは、EMC のピアが競合するのに困難を伴います。 テストでは、ユーザーが 5200 に何を期待できるかを限定的なテスト スイートで説明するために、ストレージの一般的な層と構成を詳しく説明しました。テストでは、最大 SSD 上の 7K HDD がカバーされ、システムの柔軟性、容量、パフォーマンス、またはその両方をさまざまなインターフェイス オプションで実行できます。
最終的に、VNX2 プラットフォームは、その道にあるあらゆるものを処理できます。 そして、その柔軟性が EMC との取引を日常的に勝ち取っているのです。 ストレージ オプション、IO モジュール、NAS サポートを組み合わせることにより、システムは組織が必要とするほぼすべてのものを管理できます。 もちろん、ここでテストした 5200 を超えるユースケースもあります。 VNX ファミリは、より多くのコンピューティング能力、フラッシュ割り当て、ディスク シェルフなどのニーズに対応するために、かなりスケールアップしています(VNXe3200 ではある程度スケールダウンしています)。
長所
短所
結論
EMC VNX5200 は、フラッシュ ストレージ、マルチコア CPU、最新のデータセンター ネットワーク環境を活用するように設計されたユニファイド ストレージ アレイの新しい波における主要なエントリです。 手頃な価格、構成の柔軟性、VNX2 管理ソフトウェアとサードパーティ統合へのアクセスにより、中規模市場向けの強力な総合パッケージが実現します。
EMC VNX5200 製品ページ
このレビューについて話し合う
MCx マルチコア機能 EMC VNX5200 仕様 設計と構築 管理とデータ サービスのテスト バックグラウンドとストレージ メディア エンタープライズ総合ワークロード分析 結論 長所 短所 結論