配信ド素人が3ヶ月でライブ配信を回すまで〜AIなきゃまじ無理だった報告〜

OBSって何?から始まった配信初心者が、3ヶ月で週次ライブ配信を回せるように。AI活用、記録の仕組み化、トラブル対処の全てを公開。配信ド素人の試行錯誤レポートです。

こんにちは! JADEの日西です。この記事は JADE Advent Calendar 2025 11日目の記事です。

普段は、SEOのコンサル業務やAmethyst(自社SaaS)のマーケティングなどをやりつつ、ウェビナー企画をしたりといろいろやっているのですが、2025年秋から渋谷にできた撮影スペースをいい感じに運用し、活用できる状態にすることが私の新たなミッションになりました。

問題は、配信の知識がまったくのゼロだったこと。

3ヶ月でどうやって一応形にしていったのか、今回はその記録をお届けしようと思う。


配信ド素人からのスタート

2025年秋、渋谷のJADEオフィスに撮影スペースができた。映像スイッチャー、複数のカメラ、照明機材。見た目は完璧。

でも、私を含めてメディアチーム全員が配信初心者。「OBSからYouTubeに配信をつなぐにはどうしたら?」というところから始まった。

ストリームキーって何?エンコード設定?ビットレート?

検索しながら、一つずつ確認していく。もう本当に、何もわからない状態からのスタート。「本当にこれで配信されてるのか?」とドキドキしながらテストを繰り返す。ぶっちゃけ、OBSからYouTubeにつなぐだけで、半日〜1日かかった。

そこから3ヶ月。こけら落としの会社説明会を経て、今では週次でライブ配信を回している。外部とのウェビナーも複数実施した。

この記事は、配信の「は」の字も知らなかった素人が、どうやって3ヶ月で配信運用を立ち上げたかの記録だ。

先に言っておく。AIなしでは、まじで無理だった。


テスト期間(9月〜10月):何もかも初めて

9月から、配信テストが始まった。

「まず何をチェックすればいいのか」が分からない。

照明は明るすぎないか? 暗すぎないか? カメラアングルは? 音声はちゃんと拾えてる? 音と映像がズレてないか?

チェック項目そのものを、ゼロから作っていく作業だった。

設定画面を開いても、わからないことだらけ。OBSの設定、映像スイッチャーの設定、マイクの設定……。

たとえば、無線マイクのレシーバーのファームウェアアップデート。手順が英語で書かれていて、画面の意味も分からない。

そこで、スクリーンショットを撮ってAIに送った。

検索するより速い。聞いて、試して、うまくいかなければまた聞く。

  • 今日試したこと
  • うまくいった設定
  • うまくいかなかったこと
  • 残った課題

 

次の配信テストでは、前回の残課題を潰していく。 また新しい課題が出る。記録する。また潰す。

地味だけど、このサイクルを繰り返すことで、少しずつ前に進んでいったような気がする。


こけら落とし(10月):いきなりハードモード

10月22日、こけら落としのオンライン会社説明会。

blog.ja.dev

配信の構成が固まってきた。

  • 複数のカメラを同時に映したい。
  • リアルタイムで質問を画面に表示したい。
  • 画面の隅に別の映像も入れたい。

初回配信にしては、かなり複雑すぎる。

しかも出演者は4人。有線マイクが2本、無線マイクが2本。

誰がどのマイクを使うのか。音声は全員分ちゃんと拾えてるのか。カメラはどう切り替えるのか。質問はどのタイミングで画面に出すのか。

初回からそれはもうひっちゃかめっちゃかである。

カメラ切り替えは、映像スイッチャーを主に担当している担当のメンバーが調べながら設定していった。分からないことがあればAIにも聞きつつ、結構アナログに一つずつ確認していく作業だった。

特に頭を悩ませたのが、リアルタイムで質問を画面に表示する方法

演者側のPCで質問を操作してもらうとして、その画面をそのまま配信に出すと裏側の仕組みが見えてしまう。どうするか?

思いついたのが、Google Meetを使う方法だった。

演者側のPCからGoogle Meetで画面共有し、別のPCでそれを受けて配信に流す。これなら質問だけが表示される。

これは過去にJADEがリアルタイム配信でGoogle MeetとGoogleスライドを使っていた経験からのヒントだった。最適解かは分からないけど、その時できる方法としてはベストだったと思う。

出演者の動線、マイクの受け渡し、配信フロー...。配信の中身以前の問題が山積みだった。

調べて、試して、また調べて。ギリギリまで調整して、なんとか本番を迎えた。

そして、なんと翌日には次のイベントが控えていた。(これはマジで震えた)

PROJECT GROUP様との共催ウェビナー。Optimize Next と Amethyst の連携機能リリース記念イベントだ。

blog.ja.dev

社内の準備がバタバタで、2週間前に私が担当することになった。 こけら落としの準備と並行しながら、こちらも進めていた。

今度は3人の登壇者。構成も、カメラワークも、また違う。

3人のうち2人がそれぞれ別のPC画面を操作する。ツールAを見せる時は、その画面を全画面で出しつつワイプで全員を表示。ツールBに切り替える時は、サッと別のPCの映像に切り替える。

リアルタイムで複数のツール画面を切り替えながら、人も映す。 これも初めての試みだった。

わけわからんことだらけだけど、それでも形にしないといけない。 そんな気持ちで走っていた。


本番運用(11月〜12月):走りながら改善

こけら落としとウェビナーを終えて、ホッとする暇もなく、11月末から週次配信がスタートした。

「JADEラウンジ」。ファウンダーの長山さんがざっくばらんにいろいろ発信する生配信。

見てわかる通り、配信の予定がけっこう詰まっている。週次のJADEラウンジに加えて、外部とのウェビナーも並行して走っている。

外部ウェビナーは毎回人数が違う。2人の時、3人の時、4人の時……。

そして毎回、ゼロから設計し直す。

たとえば12月のStoryHub共催ウェビナーは4人登壇。それぞれがPC画面を使ってプレゼンする。

座席配置から考えた。登壇順、PC接続の切り替え、カメラワーク、画面の演出...。全部シミュレーションして、構成を組む。

登壇順に左右を分けることで、PC接続の切り替えを最小限にする。VIDEO入力の切り替えは1回だけ。

椅子の配置、カメラアングル、音声チェック、PC抜き差しの手順、画面切り替えのタイミング、カットインの演出、マイク制御……。

全体の流れをキューリストに落とし込む。

切り替えのタイミング、誰が何を操作するか、トラブル時のバックアッププラン。

これを、毎回やってる。

構成資料を作って、MTGで詰めて、キューリストを作って、本番に臨む。

同じことは一度もない。毎回が新しい挑戦で、毎回がフルスクラッチ。

NotionのAIでマニュアルを自動生成

テスト期間から続けていたNotionのミーティングノート。履歴がどんどん溜まっていった。

ある程度溜まったところで、NotionのAIに頼んだ。

「この履歴から、配信マニュアルを作って」

素人集団の試行錯誤が、マニュアルになっていく。

マニュアルは育てるもの

配信を続けていると、「これもマニュアルに追加した方がいい」ということが出てくる。

でも、手で書こうとすると考えることが多すぎる。どこに入れる? どういう表現にする?

もう面倒臭いので、Notion AIに更新も任せた。

マニュアルのURLを添付して、「こういう内容を追加したい」と伝えるだけ。Notion AI自体が書き換えてくれる。

更新のハードルが下がることで、マニュアルは常に最新の状態を保てる。

でも、マニュアルがあっても現実は甘くなかった。

予期せぬトラブルは起きる。「あれ、思ってた配信になってない?」ということも。マニュアルはあるけど、抜け漏れが出る。

そこで作ったのが「鬼チェックリスト」。

過去の失敗やトラブルから、「これをチェックしないと事故る」という項目を全部リスト化した。

今では配信前に、このチェックリストを上から順に潰していく。地味だけど、これが一番確実。

音声で記録する

毎回のミーティングノートは配信後に、喋ってAIにまとめさせる。一人議事録みたいな感じ。

「今日はこういう設定を試した」「ここでトラブルが起きた」「次はこれを確認する必要がある」

手で文字を打つより、これがはるかに速い(当たり前)。

面白いのが、社内で普通に喋りながらこれをやっていると、一緒にやっていたメンバーが「あ、これもありましたよ」と補足してくれること。

それもそのまま記録に残る。複数人の記憶が、自然と一つの議事録になっていく。

音声入力で記録の質が変わった

音声で記録する最大のメリットは、全ての喋っている内容が残ることだ。

あとからAIに読ませて議事録化すると、情報量が膨大なのでかなり詳細にまとめ直すことができる。

箇条書きの議事録だと、「何が起きたのか」の細かなニュアンスが失われてしまう。でも音声なら、その時の状況や試行錯誤の流れまで残る。

この手法、配信以外の案件でも応用して使うようになった。音声入力×AI、今年はかなり使ったな〜

AIと番組構成を作る

週次配信や外部ウェビナーでは、AIと一緒に構成を作るようになった。

  • ゲストの話したいテーマ
  • 画面切り替えのタイミング
  • 質問を挟むポイント
  • 全体の流れとキューリスト

「こういう内容で配信したいんだけど、構成案を作って」とAIに相談しながら、骨組みを固めていく。

実際のキューリストはこんな感じだ。

画面の切り替えタイミング、誰が何を操作するか、音声チェックのポイント...。

そして「きっかけの言葉」も入れている。

画面切り替えは、基本的にこちら側でタイミングを決めてオペレーションする。でも、登壇者が自然に話している中で切り替えるには、きっかけになる言葉がないと難しい

テスト期間でこれに気づいて、台本に「ここで『では次に』と言う」みたいな形でトリガーを仕込むようになった。

配信中のオペレーションを細かく設計しておくことで、当日のトラブルを減らせる。配信の準備時間が、大幅に短縮された(はず)。

それでも解決できないこともある

AIに聞いても、解決できないことはある。

つい最近も、OBSの音声録音レベルが異常に低い問題で何時間も格闘した。Claudeに画面キャプチャを送って、設定を確認して、試して……。でも解決しなかった。

行き詰まったので、Gemini 3.0にも聞いてみた。すると、違う角度からの糸口をくれた。そこから解決に繋がった。

AIは万能じゃない。でも、複数のAIを使い分けることで、突破口が見つかることもある。

一つのAIで行き詰まったら、別のAIに聞く。調査のスタート地点を変える。一人で闇雲に調べるより、はるかに速く試行錯誤できるのが本当にうれしい。


素人が専門領域に飛び込むために

振り返ってみると、この3ヶ月で配信のあらゆる場面でAIに頼っていた。

  • 分からない設定は、画面キャプチャを送って聞く
  • 英語のマニュアルやエラーメッセージも、そのまま投げる
  • 履歴を渡して、マニュアルやチェックリストを作ってもらう
  • 配信の構成やキューリストも、一緒に考える
  • 一つのAIで行き詰まったら、別のAIに聞く

AIがなければ、3ヶ月でここまで来れなかった。まじで無理だった。

短期集中でレベルを上げる

新しい分野に飛び込むとき、私は濃密に時間をかけて一気に形にすることを大事にしている。

ダラダラ調べるより、集中的に試行錯誤して、短期間である程度のレベルまで持っていく。その後は、実践しながら改善していく。

AIは、この働き方と相性が良かった。

分からないことがあったら即座に聞ける。試して、失敗して、また聞く。このサイクルが圧倒的に速い。

「調べて理解するまで」の時間が短縮されることで、「試す回数」が増える。

3ヶ月で配信運用を立ち上げられたのは、集中投下×AI活用の組み合わせだったと思う。

AIは万能じゃない、でも

AIの回答が間違ってることもある。原因を突き止められないこともある。

それでも、調査のスタート地点を教えてくれる価値は大きい。

何を確認すべきか、どういう可能性があるか。一人で闇雲に調べるより、はるかに速く試行錯誤できる。

AIは道具だ。使い倒すことで、素人でも専門領域に飛び込みやすくなったなと、今回は心の底から実感した。


まとめ:3ヶ月の学び

2025年9月、配信の「は」の字も知らなかった。それが12月の今、週次でライブ配信を回している。外部とのウェビナーも複数実施した。

もちろん全然完璧とは程遠い。

映像スイッチャーからOBSへの連携、出音の調整……。まだ発展途上の部分も多い。つい最近も音声録音レベルの問題と格闘していた。

トラブルはどこまでも尽きない。でもまあ、走りながら改善していくしかないよねって感じ。

この3ヶ月で実感したのは、記録を残し続けることの大事さだった。毎回のミーティングノートが、あとでマニュアルやチェックリストになった。地味だけど、これが効いた。

あと、AIで試行錯誤のサイクルがめちゃくちゃ速くなった。調べて、試して、また調べて...のスピードが全然違う。

完璧を待ってたら何も始まらない。分からないことだらけでも、とにかく形にして動かす。それしかなかった。

配信初心者が3ヶ月で運用を立ち上げる。 昔だったら考えられなかったことが、今はできる。AIという道具があったから、ここまで来られた。

AIなきゃ、まじで無理だったなあ……

配信のチェックをする私の横でめちゃくちゃしゃがんで音声チェックをする伊東さん(社長)の図。意図が全くわからない写真すぎたので記念に貼っておく

アドベントカレンダー、明日は村山さんの出番です。解析の話なのか、SEOの話なのか?もしかしたら筋トレの話の可能性もあるかもしれません!乞うご期待を!