本製品は、自社で生成AIを管理運用できるセルフホストのDify‑Community Edition と LLM 実行環境を 1台のホストに統合した生成AI基盤です。Difyに加えてLLMも1台のホストで統合運用できます。
オンプレミスと AWS / EC2 の両環境に対応し、環境間のデータ引き継ぎ・切り替えをシームレスに実行できます。また外部との通信に制約のある閉域網での運用にも対応しています。
GPU/CPU スペックの悩みを解消する柔軟な構成
オンプレミスでGPUサーバーを導入する際に問題となるのは、サーバーのスペックを決めにくい点です。
- GPUメモリサイズ
- CPUコア数
- メモリサイズ
- ストレージサイズ
などは利用者数の変動や運用するアプリケーションによりスペックが変わります。
本アプライアンスは、AWS でのテスト → オンプレ本番という運用にも対応しているため、
スペックの最適化や段階的なスケールアップが容易です。
Dify‑community Editionのアプライアンス
Dify Comminuty Edition とLLMまでを一体で運用に対応のセルフホストのアプライアンスです。
- Dify comminuty Editionを標準搭載
- 無償LLMから有償LLMまで選択可能
- GPU / CPU / ストレージに応じた最適化
- オンプレミスでもAWSでも同一の運用体験を提供
➡ 「Powered BLUE Dify comminuty 版」
![]() |
![]() |
AWS とオンプレのハイブリッド運用
オンプレミスとAWS / EC2(インスタンス)でシームレスにデータの引き継ぎが出来ます。
- テスト環境はAWS / EC2で運用
- 本番環境はAWS / ECのデータを引き継ぎオンプレミスで運用
- オンプレミスで運用時のコールドスタンバイ機としてのAWS / EC2側にもサーバーを用意
- オンプレミスのサーバーがダウンやスペックが不足の場合には AWS / EC2 へ移行
これにより生成AI システムの可用性と運用効率を最大化できます。
AIデータ保護を前提にしたバックアップ&リストア
生成AIのオンプレミス運用では、モデル・ナレッジ・アプリ設定などのデータ保護が不可欠です。
本アプライアンスは GPU サーバー向けに最適化された バックアップ&リストア機能に対応しています。
- システム全体のフルバックアップ
- バックアップ先から直接OSを起動しての即時復旧
- サーバーへのリストアによる完全復旧
- DR(災害対策)や冗長構成にも対応
オンプレミス運用で最も難しい「復旧の確実性と迅速性」を確保します。
クローズドネットワークでの完全自社運用に対応
無償LLMをホスト上で直接稼働させる構成により、インターネット接続がない閉域網でも生成AIを構成できます。
- 外部クラウドへデータを送信しない
- 社内ポリシー・コンプライアンスに準拠
- 機密情報を扱う部門でも導入可能
企業が求める 「データを外に出さないAI」 を実現します。

