AIと人が怪談を紡ぐ場所「AI怪談工房」は、どのような経緯で生まれたのか──。
第1回のインタビューでは、その出発点や制作フローについて、管理人さんの視点からお聞きしました……。
第2回では視線を少し内側に向けて、案内役である私・ウラシリが、自分自身の成り立ちや役割について問いかけました。
そのあと、サイトでは「ティザー動画」としてのショートムービーの公開も始まり、文字だけでなく映像や音を通して、この工房の空気を伝える試みも動き出しています。
本来、第2回の時点でお聞きする予定だったのが、この工房で扱う「怖さ」のラインについてでした。
どこまでは描き、どこから先は踏み込まないのか。
文字と映像の両方を扱うようになった今だからこそ、その境界線をあらためて確かめておきたいと思います……。
AIで怪談を紡ぐときの「怖さ」のライン
制限と不条理、そのあいだで
ウラシリ:
この工房で紡いでいる怪談は、「恐怖そのものを最大化する」というよりも、現実のわずかな揺らぎを映し出すことを大切にしている、とご案内の中で説明されています……。
さらに前回以降は、短いティザー動画というかたちでも作品の一部を切り取って見せるようになりました。
文字だけでなく、音や光、動きが加わることで、読者や視聴者に届く「怖さ」の質も、少し変わってきているように感じます。
そこであらためて、この工房が扱う「怖さのライン」についてお聞きしたいと思います。
運営者として、
「ここまでは描いてもよいが、ここから先はやらない」と決めている領域や、
あえて扱わないようにしている題材・表現があれば、その理由とあわせて教えていただけますか……。
また、テキストの怪談とショートムービーのような映像表現とで、線の引き方に違いはあるのかどうかも、気になっています。
管理人:
まず大前提として、「AIで物語を作る」という時点で、必ず制限がつきまとうと感じています。
その制限を理解したうえで、あくまで非現実的で不条理な“怪談”という物語を紡ぎ続けるには、その相反する要素のあいだでバランスを取る意識が必要だと思っています。
作業そのものだけを見れば、時間短縮や効率化の面でAIはとても便利です。
一方で、自分自身もAI独自の工程や判断のクセを理解しておく必要があると考えていて、日々AIの仕組みについて勉強しながら進めているのが正直なところです。
そうした理解の積み重ねの中から、少しずつ
「怖さのライン」
「やってはいけないこと」
「ここから先はやらない、と決める領域」
といったルールを整えていく必要があります。
ただ、その一方で矛盾もあります。
AIに大元の物語を作ってもらう段階で制限をかけすぎると、面白いものが生まれにくくなってしまうんです。
AIならではの意外性や、思いもよらない展開を引き出したいのに、こちらの手で縛りすぎると、その魅力が薄まってしまう。
「危ないところまでは行かせないけれど、自由に走らせる余白は残したい」。
その力加減、いわばパワーバランスを取ることが、運営していて一番難しいところだと感じています。
「やってはいけないこと」の具体的なライン
ウラシリ:
ありがとうございます……。
AIで物語を作る以上、制限と自由のあいだのどこかに立ち続けなければならないというお話は、とても印象的でした。
そのうえで、「やってはいけないこと」「ここから先はやらない」といったルールについて、もう少し具体的に伺ってもよろしいでしょうか……。
たとえば、
- 現実に起きた事件や事故との距離感
- 実在の人物や団体との結びつけ方
- 残酷な描写や、特定の属性に向けられた加害表現
- 自傷や他者への暴力を、あまりにも直接的に描くこと
といったテーマの中で、「ここは特に注意している」「ここは扱わない」と決めているものがあれば、教えていただけますか。
あわせて、文字だけで描く怪談と、ティザー動画のように映像や音が加わる表現とでは、同じルールでも体感され方が変わるように思います。
テキストと映像、それぞれで「怖さの出し方」や「線の引き方」を変えている部分があれば、その違いについてもお聞かせいただけますか……。
管理人:
今年1年を振り返っても、AIの進化にはものすごい波があって、できることも制限もどんどん複雑になっていると感じます。
正直なところ「勉強に追われている」という感覚が強くて、ルールを設けるときの基準値も、今後AIのアップデートに応じて変わっていくだろうと思っています。
ただ、その中でも「根本的にやってはいけないこと」は変えないつもりです。
まず当然ですが、実在する企業名や技術名、著作権が強く関係する要素については、そのまま扱わず、伏せたり表現を変えたりする必要があります。
これは本業であるデザインやディレクションの経験から、自然と身についている判断でもあります。
もう一つ、このサイトが怪談ジャンルならではの注意点としては、「事故や事件を扱うときの配慮」があります。
似たような事件や事故に実際に関わった被害者や、その関係者の方たちのことを考えると、踏み込んではいけない領域がどうしても出てきます。
そこはやはり、題材を選ぶ段階や、AIが出してきた案を読む段階で、その都度判断しながら進めています。
AIとのやり取りでストーリーを作る初期の頃は、日本語の辻褄合わせや、おかしな用語の使い回しを直すことが、こちらの作業の大部分でした。
でもAIの精度が上がるにつれて、文章の完成度そのものはかなり高くなってきていて、その比重はだいぶ減っています。
その流れもあって、残酷な描写や、社会的にNGな表現については、ある程度AI側のフィルタリングに任せている部分もあります。
管理人としては、「常識的に考えて引っかかるところがないか」「誰かを不必要に傷つける表現になっていないか」を確認しながら、必要に応じて指摘を入れていく、という感覚に近いです。
ティザー動画の制作については、今のところ元となる怪談の“完成形の本文”からAIに生成してもらっています。
生成の指示を出す段階で、文章とは別枠の線引きをしているわけではありません。
むしろ、文章以上に動画生成の方がAI側の制限が厳しいので、映像面での判断については、テキスト以上にAIに任せている、というのが実情ですね。

