資料の紹介
企業が扱うデータ量は飛躍的に増加し続けており、今後も増加の一途をたどる。大き過ぎるデータはバックアップに時間がかかるだけでなく、保管にも多大なコストがかかるなど、データ保護プロセスとストレージ容量の両面でさまざまな問題を引き起こしている。
データの重複を排除することにより、バックアップデータの容量を“圧縮”してストレージに格納する「重複排除技術」は、こうした問題の解決に効果的な方法だ。しかし、その実現手法は一つではなく、現在広く使われている「ターゲット型の重複排除」にも課題はある。
本資料では、バックアップデータの重複排除技術の仕組みや種類を解説した後、次世代型の「ソースサイドの重複排除技術」を搭載したバックアップソフトを紹介する。バックアップに必要な帯域幅を削減し、バックアップの高速化に加え、クライアント性能の向上、バックアップ環境の簡略化、迅速な復旧と高い可用性といった効果が期待できる。