VLMでメディアを管理する

セルフホスト型メディアマネージャー

Generative Media Manager : GeMM

動画・画像・PDF・Word・ExcelをVLMで解析し、自然言語で横断検索。 検索結果を視覚的に提示し、ハルシネーションを回避。 完全セルフホスト。機密データを外部に送信しません。

GeMM のしくみ

マルチモーダルデータをベクトル化し、RAGのRetrieverとして機能

入力データ

動画
画像
文書

GeMM-Core 処理エンジン

Chunker

動画・文書を
適切なサイズに分割

VLM解析

Phi-3.5-vision 等
量子化による軽量・高速化

Embedding

CLIP / ST
マルチモーダル埋め込み

物体検出

GroundingDINO
テキストクエリ検索

ベクトルDB

PostgreSQL + pgvector

コサイン類似度による高速ベクトル検索

出力・連携

Web UI

社内ナレッジ検索

LLM連携

翻訳・要約・RAG

REST API

社内システムとの連携

柔軟なデプロイ:コア機能はDocker Composeで自社環境にデプロイ。 必要に応じてクラウドLLM(OpenAI、Claude等)と連携することも可能です。

主な特徴

— From Storage to Intelligence —

柔軟なアーキテクチャ

Docker Composeで自社環境にデプロイ。ローカルVLMで処理しつつ、 必要に応じてクラウドLLMと連携。完全オンプレミス運用も可能。

マルチモーダル検索基盤

動画・画像・文書を統一的にベクトル化し、自然言語で横断検索。 検索結果は視覚的に提示され、ハルシネーションを回避できます。

高速ベクトル検索

PostgreSQL + pgvectorでHNSWインデックスによる高速ANN検索。 数百万ベクトルでもミリ秒レスポンス。既存のSQLワークフローとも統合可能。

活用シーン

マルチモーダル検索基盤で社内データを活用

Web UIによる社内ナレッジ検索

会議動画、マニュアル動画、研修資料を自然言語で横断検索。 「先月の経営会議で売上について話した箇所」のような曖昧なクエリにも対応。

  • • 動画内のシーンを直接検索
  • • 類似コンテンツの自動レコメンド
  • • タイムスタンプ付き検索結果

AIエージェント連携

AIエージェントと接続し、GeMMをRetrieverとしてマルチモーダルな知識ベースを構築。

  • • ChatGPT / Claude / Copilot / Claude Code / Cursor
  • • REST API / Function Calling対応

REST APIによる社内システム連携

製造ラインの監視映像や検査画像を解析。異常検知や過去事例との類似検索で、 品質管理の効率化とトレーサビリティを実現。

  • • 異常パターンの類似検索
  • • 過去事例との自動マッチング
  • • レポート自動生成

料金プラン

ニーズに合ったプランをお選びください

Free

¥0/月

個人利用・評価目的向け

  • 動画内検索
  • セマンティックビュー
  • Generative チャットUI
  • ローカルLLM連携
  • 🚧クラウドLLM連携(準備中)
  • REST API
  • MCP連携
  • カスタムプロンプト
  • Grounding DINO
  • 商用利用
  • Discordサポート
準備中

Professional

Coming Soon

エンジニア・個人向け

  • 動画内検索
  • セマンティックビュー
  • Generative チャットUI
  • ローカルLLM連携
  • 🚧クラウドLLM連携(準備中)
  • REST API
  • MCP連携
  • カスタムプロンプト
  • Grounding DINO(物体検出)
  • NAS/共有フォルダ対応
  • 商用利用可
  • Discord + メールサポート
Coming Soon

Enterprise

要問合せ

法人向け

  • 複数ユーザー対応
  • 複数ハードウェア対応
  • Professionalの全機能
  • マルチクエリ
  • RAG 2.0
  • 各種モデルのファインチューニング
  • 分野特化のための専門用語辞書構築
  • 専任サポート
  • リモートサポートサービス

よくある質問

GeMMはどこで動作しますか?

GeMMはダウンロード型のソフトウェアで、お客様の環境にインストールして使用します。 マルチモーダル検索基盤の処理はすべてローカルで実行され、必要に応じてクラウドLLM(OpenAI、Claude等)と連携することも可能です。

無料プランの制限は?

Freeプランでは商用利用はできませんが、個人利用や評価目的でお使いいただけます。 REST APIとMCP連携は利用できません。

ハードウェア要件は?

NVIDIA GPUが必要です。推奨はVRAM 16GB以上のGPU(RTX 4060以上)、 システムメモリは32GB以上を推奨します。 Docker ComposeでNGINX、Django、PostgreSQL、AIサービスを起動します。

プランの変更はできますか?

はい、いつでもプランを変更できます。アップグレードは即座に反映され、 ダウングレードは次の請求サイクルから適用されます。

今すぐGeMMを始めましょう

クレジットカード不要。まずは無料プランでお試しください。

無料で始める