公開日:2026-01-13
VTuberの3Dライブやメタバースライブは、まるで現実のステージのような臨場感があります。「この映像はどう作っているの?」「リアルタイム?それともCG動画?」と気になる人も多いはずです。
本記事では、バーチャルライブ動画ができるまでの流れを、モーションキャプチャ(モーキャプ)→Unityでの映像生成→配信(OBSなど)という順で、初心者にもわかりやすく解説します。
目次
1.バーチャルライブの動画は「リアルタイム型」と「事前制作型」がある
2.【全体像】バーチャルライブ制作の基本フロー
3.モーキャプとは?バーチャルライブでアバターを動かす仕組み
4.Unityでは何をしている?(キャラ・背景・演出)
5.配信はOBS?スイッチャー?どう映像にする?
6.音の仕組み(歌・SE・MC)
7.失敗しないための本番運用ポイント
8.まとめ
1. バーチャルライブは「リアルタイム型」と「事前制作型」
バーチャルライブの映像は、大きく分けて2種類あります。
リアルタイム型:その場で演者をモーキャプし、Unity/Unrealで映像を生成して配信する
事前制作型:演出やアニメーションを作り込んで、ゲーム内イベントとして再生する(Fortniteのライブなど)
リアルタイム型は、生放送のようにその場の動きや演出が映像に反映されるのが特徴です。一方、事前制作型は映画のように演出を作り込み、高い映像クオリティを実現できるのが強みです。
「生放送のライブ感」を重視するならリアルタイム型が主流になります。
2.【全体像】バーチャルライブ制作の基本フロー
バーチャルライブの映像は、いきなり完成するわけではありません。
人の動き・3DCG・配信技術が連携して、次のような流れで作られます。
① 演者の動きを取得する(モーションキャプチャ)
まず、演者(ダンサーやVTuberの中の人)の身体の動きをセンサーやカメラで取得します。
これが“アバターを動かすための元データ”になります。
② アバターとステージをCG空間で動かす(Unityなど)
取得した動きのデータは、UnityやUnreal Engineに送られます。
ここで、
- ・キャラクター(アバター)
- ・ステージや背景
- ・照明・エフェクト・演出
をリアルタイムに合成し、「バーチャルステージの映像」を生成します
③ 映像を配信ソフトでまとめる(OBSなど)
Unityで作られた映像は、配信ソフトに取り込まれます。
ここで画面構成やカメラ切り替え、テロップ表示などを行い、最終的な“ライブ映像”の形に整えます。
④ 配信プラットフォームへ送信
完成した映像は、YouTube Liveや配信プラットフォームへ送られ、視聴者に届けられます。
3.モーキャプとは?バーチャルライブでアバターを動かす仕組み
モーキャプ(モーションキャプチャ)とは、人の身体の動きをデータとして取得し、3Dキャラクターに反映させる技術のことです。
バーチャルライブでは、このモーキャプによって演者の動きがアバターに伝えられ、リアルなパフォーマンス映像が生まれます。
たとえばダンスや手の動き、体の向きなど、演者の動作はセンサーやカメラによって取得され、数値データに変換されます。そのデータがUnityなどのゲームエンジンに送られ、アバターが同じ動きを再現します。
つまりモーキャプは、「人の動き」と「CGキャラクター」をつなぐ橋渡しの役割を担っています。
これがあることで、事前にアニメーションを作らなくても、ライブ中の動きがそのまま映像に反映されるのです。
4.Unityでは何をしている?(キャラ・背景・演出)
モーキャプで取得した動きのデータは、そのまま映像にはなりません。
その動きを受け取り、実際の“ライブ映像”として見える形にしているのが Unity(ゲームエンジン) です。
Unityは、バーチャルライブにおける仮想ステージ全体を管理する場所のような役割を持っています。
① キャラクター(アバター)を動かす
モーキャプで取得した演者の動きはUnityに送られ、3Dアバターへ反映されます。
これにより、
- ・ダンス
- ・ジェスチャー
- ・立ち位置の移動
といった動きがリアルタイムで再現されます。
② ステージや背景を表示する
Unityでは、キャラクターだけでなく、
- ・ステージの床
- ・背景空間
- ・イティング(照明)
などもまとめて表示します。
いわば「ライブ会場そのもの」をCGで構築している状態です。
③ エフェクトや演出を出す
Unityは、ライブ演出の中枢でもあります。
たとえば
- ・スモークや光のパーティクル
- ・照明の色変化
- ・ロゴの出現
- ・カメラワーク
などは、Unity内で制御されています。
リアルタイム型ライブでは、これらの演出が曲やタイミングに合わせて動きます。
つまりUnityが担っている役割は
モーキャプで取得した動きと、3DCGの世界を合体させて“ライブ映像”を生成する場所
人の動き・ステージ・演出を一つの空間でまとめて描画することで、私たちが見ているバーチャルライブの映像が作られています。
5. 配信はOBS?スイッチャー?どう映像にする?
Unityで作られた映像は、いったん配信ソフトに取り込まれます。
ここで画面構成や切り替えを行い、視聴者が見る“ライブ映像”の形に整えます。
映像をまとめる
OBS(Open Broadcaster Software)などの配信ソフトでは、Unityの映像を取り込み、配信画面として扱います。ここでロゴや曲名テロップ、コメント表示などを重ねることもできます。
画面を切り替える
ライブ中は、シーンの切り替えやカメラアングルの変更も行われます。
小規模な配信ならOBSで操作しますが、規模が大きいライブでは専用の映像スイッチャーを使うこともあります。これはテレビの生放送と同じように、複数の映像を切り替えるための機材です。
視聴者に届くまで
こうして整えられた映像が、YouTube Liveなどの配信サービスに送られ、視聴者に届けられます。
この工程の役割
Unityが“映像を作る場所”だとすると、OBSやスイッチャーは“放送番組の形に仕上げる場所”にあたります。
6. 音の仕組み(歌・SE・MC)
バーチャルライブは映像だけでなく、音もリアルタイムに組み合わさって成り立っています。
歌やトーク、効果音などが重なり、初めて“ライブ体験”になります。
歌
歌は、生歌で行う場合と、事前に収録した音源を使う場合があります。
生歌の場合はマイクの音がミキサーを通り、配信に乗る形になります。
アバターの口の動き(リップシンク)も、音声に合わせて制御されることが多いです。
MC(トーク)
MCも基本的にはリアルタイムの音声です。
コメントに反応したり、その場の流れで話したりすることで、ライブらしい“生感”が生まれます。
SE・BGM
曲の再生や効果音(SE)、歓声などの音もここに含まれます。
曲の再生タイミングに合わせてUnity側の演出が動くこともあり、映像と音が連動する場面もあります。
この工程の役割
映像が“見た目”を作るなら、音は“空気感”を作る
歌・トーク・効果音が合わさることで、画面の中の出来事が「その場で起きている体験」として感じられるようになります。
これで
・映像
・ 配信
・ 音
が揃って、バーチャルライブの構造がほぼ完成です。
7.失敗しないための本番運用ポイント
バーチャルライブは、技術がそろえば自動で成功するわけではありません。
特にリアルタイム型では、本番の運用が仕上がりを大きく左右します。
事前テストを重ねる
モーキャプのズレや通信トラブルは、本番になってから発覚することもあります。
事前に通しリハーサルを行い、動きや演出、映像・音の流れを確認しておくことが重要です。
機材や回線に余裕を持つ
PCの処理負荷や回線の不安定さは、映像のカクつきや音ズレにつながります。
予備機材やバックアップ回線を用意するなど、トラブル時の備えも欠かせません。
役割分担を明確にする
ライブ中は、
・演者
・映像オペレーター
・音声担当
・配信担当
など、複数の人が関わります。
誰が何を担当するかを事前に整理しておくことで、本番中の混乱を防げます。
操作手順を共有する
シーン切り替えや演出タイミングは、事前に台本として共有しておくと安心です。
リアルタイムライブは「運用」も含めて制作の一部と言えます。
映像や音の仕組みを支えているのは、裏側の準備と運用です。
ここが整っているほど、視聴者には“自然なライブ体験”として届きます。
8. まとめ
バーチャルライブの動画は、人の動き(モーキャプ)・ゲームエンジン(Unity)・配信技術(OBSなど)が連携することで作られています。
演者の動きをデータとして取得し、アバターが動き、CGのステージや演出と合わさり、最終的に配信画面として整えられて視聴者に届けられます。そこに歌やトーク、効果音が重なることで、映像は“ライブ体験”へと変わります。
一見するとCG映像のように見えるバーチャルライブですが、その裏側ではゲーム制作・映像制作・配信運用といった複数の技術が組み合わさっています。仕組みを知ることで、ライブを見る側としても、作る側としても、より面白さが広がる分野です。