
こんにちは! JADEの日西です。この記事は JADE Advent Calendar 2025 11日目の記事です。
普段は、SEOのコンサル業務やAmethyst(自社SaaS)のマーケティングなどをやりつつ、ウェビナー企画をしたりといろいろやっているのですが、2025年秋から渋谷にできた撮影スペースをいい感じに運用し、活用できる状態にすることが私の新たなミッションになりました。
問題は、配信の知識がまったくのゼロだったこと。
3ヶ月でどうやって一応形にしていったのか、今回はその記録をお届けしようと思う。
配信ド素人からのスタート
2025年秋、渋谷のJADEオフィスに撮影スペースができた。映像スイッチャー、複数のカメラ、照明機材。見た目は完璧。

でも、私を含めてメディアチーム全員が配信初心者。「OBSからYouTubeに配信をつなぐにはどうしたら?」というところから始まった。
ストリームキーって何?エンコード設定?ビットレート?
検索しながら、一つずつ確認していく。もう本当に、何もわからない状態からのスタート。「本当にこれで配信されてるのか?」とドキドキしながらテストを繰り返す。ぶっちゃけ、OBSからYouTubeにつなぐだけで、半日〜1日かかった。
そこから3ヶ月。こけら落としの会社説明会を経て、今では週次でライブ配信を回している。外部とのウェビナーも複数実施した。

この記事は、配信の「は」の字も知らなかった素人が、どうやって3ヶ月で配信運用を立ち上げたかの記録だ。
先に言っておく。AIなしでは、まじで無理だった。
テスト期間(9月〜10月):何もかも初めて
9月から、配信テストが始まった。
「まず何をチェックすればいいのか」が分からない。
照明は明るすぎないか? 暗すぎないか? カメラアングルは? 音声はちゃんと拾えてる? 音と映像がズレてないか?
チェック項目そのものを、ゼロから作っていく作業だった。
設定画面を開いても、わからないことだらけ。OBSの設定、映像スイッチャーの設定、マイクの設定……。
たとえば、無線マイクのレシーバーのファームウェアアップデート。手順が英語で書かれていて、画面の意味も分からない。
そこで、スクリーンショットを撮ってAIに送った。

検索するより速い。聞いて、試して、うまくいかなければまた聞く。
- 今日試したこと
- うまくいった設定
- うまくいかなかったこと
- 残った課題

次の配信テストでは、前回の残課題を潰していく。 また新しい課題が出る。記録する。また潰す。
地味だけど、このサイクルを繰り返すことで、少しずつ前に進んでいったような気がする。
こけら落とし(10月):いきなりハードモード
10月22日、こけら落としのオンライン会社説明会。
配信の構成が固まってきた。
- 複数のカメラを同時に映したい。
- リアルタイムで質問を画面に表示したい。
- 画面の隅に別の映像も入れたい。
初回配信にしては、かなり複雑すぎる。
しかも出演者は4人。有線マイクが2本、無線マイクが2本。
誰がどのマイクを使うのか。音声は全員分ちゃんと拾えてるのか。カメラはどう切り替えるのか。質問はどのタイミングで画面に出すのか。
初回からそれはもうひっちゃかめっちゃかである。

カメラ切り替えは、映像スイッチャーを主に担当している担当のメンバーが調べながら設定していった。分からないことがあればAIにも聞きつつ、結構アナログに一つずつ確認していく作業だった。
特に頭を悩ませたのが、リアルタイムで質問を画面に表示する方法。

演者側のPCで質問を操作してもらうとして、その画面をそのまま配信に出すと裏側の仕組みが見えてしまう。どうするか?
思いついたのが、Google Meetを使う方法だった。
演者側のPCからGoogle Meetで画面共有し、別のPCでそれを受けて配信に流す。これなら質問だけが表示される。
これは過去にJADEがリアルタイム配信でGoogle MeetとGoogleスライドを使っていた経験からのヒントだった。最適解かは分からないけど、その時できる方法としてはベストだったと思う。
出演者の動線、マイクの受け渡し、配信フロー...。配信の中身以前の問題が山積みだった。
調べて、試して、また調べて。ギリギリまで調整して、なんとか本番を迎えた。
そして、なんと翌日には次のイベントが控えていた。(これはマジで震えた)
PROJECT GROUP様との共催ウェビナー。Optimize Next と Amethyst の連携機能リリース記念イベントだ。
社内の準備がバタバタで、2週間前に私が担当することになった。 こけら落としの準備と並行しながら、こちらも進めていた。
今度は3人の登壇者。構成も、カメラワークも、また違う。
3人のうち2人がそれぞれ別のPC画面を操作する。ツールAを見せる時は、その画面を全画面で出しつつワイプで全員を表示。ツールBに切り替える時は、サッと別のPCの映像に切り替える。
リアルタイムで複数のツール画面を切り替えながら、人も映す。 これも初めての試みだった。

わけわからんことだらけだけど、それでも形にしないといけない。 そんな気持ちで走っていた。
本番運用(11月〜12月):走りながら改善
こけら落としとウェビナーを終えて、ホッとする暇もなく、11月末から週次配信がスタートした。
「JADEラウンジ」。ファウンダーの長山さんがざっくばらんにいろいろ発信する生配信。

見てわかる通り、配信の予定がけっこう詰まっている。週次のJADEラウンジに加えて、外部とのウェビナーも並行して走っている。
外部ウェビナーは毎回人数が違う。2人の時、3人の時、4人の時……。
そして毎回、ゼロから設計し直す。
たとえば12月のStoryHub共催ウェビナーは4人登壇。それぞれがPC画面を使ってプレゼンする。
座席配置から考えた。登壇順、PC接続の切り替え、カメラワーク、画面の演出...。全部シミュレーションして、構成を組む。

登壇順に左右を分けることで、PC接続の切り替えを最小限にする。VIDEO入力の切り替えは1回だけ。
椅子の配置、カメラアングル、音声チェック、PC抜き差しの手順、画面切り替えのタイミング、カットインの演出、マイク制御……。
全体の流れをキューリストに落とし込む。

切り替えのタイミング、誰が何を操作するか、トラブル時のバックアッププラン。
これを、毎回やってる。
構成資料を作って、MTGで詰めて、キューリストを作って、本番に臨む。
同じことは一度もない。毎回が新しい挑戦で、毎回がフルスクラッチ。
NotionのAIでマニュアルを自動生成
テスト期間から続けていたNotionのミーティングノート。履歴がどんどん溜まっていった。
ある程度溜まったところで、NotionのAIに頼んだ。
「この履歴から、配信マニュアルを作って」
素人集団の試行錯誤が、マニュアルになっていく。

マニュアルは育てるもの
配信を続けていると、「これもマニュアルに追加した方がいい」ということが出てくる。
でも、手で書こうとすると考えることが多すぎる。どこに入れる? どういう表現にする?
もう面倒臭いので、Notion AIに更新も任せた。
マニュアルのURLを添付して、「こういう内容を追加したい」と伝えるだけ。Notion AI自体が書き換えてくれる。
更新のハードルが下がることで、マニュアルは常に最新の状態を保てる。
でも、マニュアルがあっても現実は甘くなかった。
予期せぬトラブルは起きる。「あれ、思ってた配信になってない?」ということも。マニュアルはあるけど、抜け漏れが出る。
そこで作ったのが「鬼チェックリスト」。
過去の失敗やトラブルから、「これをチェックしないと事故る」という項目を全部リスト化した。

今では配信前に、このチェックリストを上から順に潰していく。地味だけど、これが一番確実。
音声で記録する
毎回のミーティングノートは配信後に、喋ってAIにまとめさせる。一人議事録みたいな感じ。
「今日はこういう設定を試した」「ここでトラブルが起きた」「次はこれを確認する必要がある」
手で文字を打つより、これがはるかに速い(当たり前)。

面白いのが、社内で普通に喋りながらこれをやっていると、一緒にやっていたメンバーが「あ、これもありましたよ」と補足してくれること。
それもそのまま記録に残る。複数人の記憶が、自然と一つの議事録になっていく。
音声入力で記録の質が変わった
音声で記録する最大のメリットは、全ての喋っている内容が残ることだ。
あとからAIに読ませて議事録化すると、情報量が膨大なのでかなり詳細にまとめ直すことができる。
箇条書きの議事録だと、「何が起きたのか」の細かなニュアンスが失われてしまう。でも音声なら、その時の状況や試行錯誤の流れまで残る。
この手法、配信以外の案件でも応用して使うようになった。音声入力×AI、今年はかなり使ったな〜
AIと番組構成を作る
週次配信や外部ウェビナーでは、AIと一緒に構成を作るようになった。
- ゲストの話したいテーマ
- 画面切り替えのタイミング
- 質問を挟むポイント
- 全体の流れとキューリスト
「こういう内容で配信したいんだけど、構成案を作って」とAIに相談しながら、骨組みを固めていく。

実際のキューリストはこんな感じだ。

画面の切り替えタイミング、誰が何を操作するか、音声チェックのポイント...。
そして「きっかけの言葉」も入れている。
画面切り替えは、基本的にこちら側でタイミングを決めてオペレーションする。でも、登壇者が自然に話している中で切り替えるには、きっかけになる言葉がないと難しい。
テスト期間でこれに気づいて、台本に「ここで『では次に』と言う」みたいな形でトリガーを仕込むようになった。
配信中のオペレーションを細かく設計しておくことで、当日のトラブルを減らせる。配信の準備時間が、大幅に短縮された(はず)。
それでも解決できないこともある
AIに聞いても、解決できないことはある。
つい最近も、OBSの音声録音レベルが異常に低い問題で何時間も格闘した。Claudeに画面キャプチャを送って、設定を確認して、試して……。でも解決しなかった。
行き詰まったので、Gemini 3.0にも聞いてみた。すると、違う角度からの糸口をくれた。そこから解決に繋がった。
AIは万能じゃない。でも、複数のAIを使い分けることで、突破口が見つかることもある。
一つのAIで行き詰まったら、別のAIに聞く。調査のスタート地点を変える。一人で闇雲に調べるより、はるかに速く試行錯誤できるのが本当にうれしい。
素人が専門領域に飛び込むために
振り返ってみると、この3ヶ月で配信のあらゆる場面でAIに頼っていた。
- 分からない設定は、画面キャプチャを送って聞く
- 英語のマニュアルやエラーメッセージも、そのまま投げる
- 履歴を渡して、マニュアルやチェックリストを作ってもらう
- 配信の構成やキューリストも、一緒に考える
- 一つのAIで行き詰まったら、別のAIに聞く
AIがなければ、3ヶ月でここまで来れなかった。まじで無理だった。
短期集中でレベルを上げる
新しい分野に飛び込むとき、私は濃密に時間をかけて一気に形にすることを大事にしている。
ダラダラ調べるより、集中的に試行錯誤して、短期間である程度のレベルまで持っていく。その後は、実践しながら改善していく。
AIは、この働き方と相性が良かった。
分からないことがあったら即座に聞ける。試して、失敗して、また聞く。このサイクルが圧倒的に速い。
「調べて理解するまで」の時間が短縮されることで、「試す回数」が増える。
3ヶ月で配信運用を立ち上げられたのは、集中投下×AI活用の組み合わせだったと思う。
AIは万能じゃない、でも
AIの回答が間違ってることもある。原因を突き止められないこともある。
それでも、調査のスタート地点を教えてくれる価値は大きい。
何を確認すべきか、どういう可能性があるか。一人で闇雲に調べるより、はるかに速く試行錯誤できる。
AIは道具だ。使い倒すことで、素人でも専門領域に飛び込みやすくなったなと、今回は心の底から実感した。
まとめ:3ヶ月の学び
2025年9月、配信の「は」の字も知らなかった。それが12月の今、週次でライブ配信を回している。外部とのウェビナーも複数実施した。
もちろん全然完璧とは程遠い。
映像スイッチャーからOBSへの連携、出音の調整……。まだ発展途上の部分も多い。つい最近も音声録音レベルの問題と格闘していた。
トラブルはどこまでも尽きない。でもまあ、走りながら改善していくしかないよねって感じ。
この3ヶ月で実感したのは、記録を残し続けることの大事さだった。毎回のミーティングノートが、あとでマニュアルやチェックリストになった。地味だけど、これが効いた。
あと、AIで試行錯誤のサイクルがめちゃくちゃ速くなった。調べて、試して、また調べて...のスピードが全然違う。
完璧を待ってたら何も始まらない。分からないことだらけでも、とにかく形にして動かす。それしかなかった。
配信初心者が3ヶ月で運用を立ち上げる。 昔だったら考えられなかったことが、今はできる。AIという道具があったから、ここまで来られた。
AIなきゃ、まじで無理だったなあ……

アドベントカレンダー、明日は村山さんの出番です。解析の話なのか、SEOの話なのか?もしかしたら筋トレの話の可能性もあるかもしれません!乞うご期待を!