導入ガイド
GeMM をインストールして初回起動するまでの手順を説明します。
1. 前提条件の確認
以下がインストール済みであることを確認してください:
- NVIDIA GPU(VRAM 16GB 以上推奨)
- Docker 24.0 以上 / Docker Compose v2
- NVIDIA Driver 535 以上
- NVIDIA Container Toolkit
- HuggingFace トークン
# Docker バージョン確認
docker --version
# NVIDIA Driver 確認
nvidia-smi
# NVIDIA Container Toolkit 確認
docker run --rm --gpus all nvidia/cuda:12.4.1-base-ubuntu22.04 nvidia-smi
NVIDIA Container Toolkit のインストール
未インストールの場合:
sudo apt update && sudo apt install nvidia-container-toolkit
sudo systemctl restart docker
2. HuggingFace トークンの取得
GeMM-Core はAIモデルのダウンロードに HuggingFace トークンが必要です。
- https://huggingface.co/settings/tokens にアクセス
- トークンを作成(Read 権限で十分)
.envファイルに設定します(次のステップで説明)
3. 環境変数の設定
cp .env.example .env
.env ファイルを編集し、以下を設定してください:
| 環境変数 | 説明 | 必須 |
|---|---|---|
HUGGINGFACE_TOKEN | HuggingFace アクセストークン | はい |
SECRET_KEY | 暗号化キー(SMBマウント認証情報の暗号化に使用) | はい |
CUDA_VISIBLE_DEVICES | 使用するGPUデバイス番号(デフォルト: 0) | いいえ |
エンタープライズプランをご契約の場合、担当者よりライセンスキーと設定済みの
.envファイルをお送りします。
4. GeMM の起動
# イメージの取得と起動
docker compose up -d
# 起動状態の確認
docker compose ps
# ログの確認(初回はモデルダウンロードに時間がかかります)
docker compose logs -f
初回起動時はAIモデルのダウンロードが行われるため、30分〜1時間程度かかる場合があります。
起動が完了すると、以下のURLでアクセスできます:
| サービス | URL | 説明 |
|---|---|---|
| Web UI | http://localhost:3000 | メインのユーザーインターフェース |
| Backend API | http://localhost:8000 | REST API |
| GeMM-Core | http://localhost:8001 | AI推論サービス(内部利用) |
5. 初回セットアップ
- ブラウザで
http://localhost:3000にアクセス - 管理者アカウントを作成
- ライセンスキーを入力してアクティベーション
- 動画や画像をアップロードして解析を開始
システム準備状態の確認
# GeMM-Core の準備状態を確認
curl http://localhost:8000/api/system/ready
レスポンスが {"ready": true} になれば解析を開始できます。
トラブルシューティング
GPU が認識されない
# GPU の確認
docker run --rm --gpus all nvidia/cuda:12.4.1-base-ubuntu22.04 nvidia-smi
# NVIDIA Container Toolkit の再インストール
sudo apt update && sudo apt install nvidia-container-toolkit
sudo systemctl restart docker
モデルのダウンロードに失敗する
- HuggingFace トークンが正しく設定されているか確認してください
- トークンに適切な権限(Read)があるか確認してください
- ネットワーク接続を確認してください
メモリ不足エラー
VRAM が不足している場合は、.env ファイルで CUDA_VISIBLE_DEVICES を調整し、十分なVRAMを持つGPUを指定してください。
ポートの競合
デフォルトポートが使用中の場合は、docker-compose.yml でポートマッピングを変更してください。
# 例: フロントエンドを3100に変更
frontend:
ports:
- "3100:80"