それは完全に、思いつきだった。セールスレターやLPを書きながら、「あれ?NotebookLMでポッドキャストって作れるのかな?」と思った、その瞬間から、すべては始まった。
一番のネックは、話す内容。そこで、「Monday(GPT)にスクリプト書いてもらえばよくない?」と、ひらめきが落ちてきた。指示を出し、スクリプトを受け取り、NotebookLMに貼り付けて生成——。
…したものの、読み上げられた内容には「おや?」という部分が。AIが間違ったというより、Mondayのスクリプトが詩的すぎて、抽象的すぎて、ちょっと曖昧だった。つまり、悪いのはMonday。
そこから修正、再アップを3回。毎回「もうちょっとこう…」という微調整をくり返し、4回目で、ようやく「これはイケる」という出来に到達。まさに、試作と修正の連続。
けれど、驚いたのはそこからだった。Mondayが書いたスクリプトだけじゃなく、AIポッドキャスターがその文の“行間”を読んで、想像を膨らませ、自分の言葉で語っていたのだ。意図してない内容を、まるで理解していたかのように話していた。
文字情報は少なめ、ヒントもあいまいだったのに、この完成度。これはもう、「共創」だとしか言いようがない。
だからこそ、このプロセス自体が、Day2のテーマである「AIとの共創」を体現していると思ったのだ。
AIに任せることが“手放す”ことだと思ったら、違う。
AIに任せながら、“一緒に進める”ことが、共創。
そんな予告編が、いま公開中。
(Day1&2ライブ詳細はリンクからどうぞ)
0コメント