top of page

「歌う顔」はなぜ心を動かすのか

  • 執筆者の写真: Mondo
    Mondo
  • 6月22日
  • 読了時間: 2分

―LipSyncによる“エモい瞬間”の考察―


Lipsyncあり

Lipsync なし

―LipSyncによる“エモい瞬間”の考察と制作メモ―


動画生成ツール「Kling」を使って、2つの短編映像を作りました。ひとつは、キャラクターが実際の歌声に合わせて口や表情を動かすLipSyncありのバージョン。もうひとつは、歌は流れない LipSyncなしのバージョン。
一見、どちらも同じキャラで、同じ尺。でも観たときの印象はまったく違います。

口が動くと、心が動く


LipSyncありの映像には、なぜか引き込まれてしまうんです。それは、**歌声に合わせて“顔が歌っている”**から。
口パクだけじゃなく、目や頬、まばたきやタイミングまでもが微妙に表情を作り出し、キャラクターがまるで本当に“そこに存在する”ように感じられる。
これは技術の話ではなく、感情移入の話。AIによる表現が「演技」になった瞬間、観ている側の想像力が一気に働き出します。そして、たった10秒でも、“この子の歌をもっと聴いてみたい”という気持ちが芽生える。

制作裏話:「予想外のエモさ」に自分が揺さぶられた


正直、はじめは「技術テスト」のつもりでした。音声とキャラの口パクを合わせる。それだけのつもりが、LipSyncされたキャラクターの表情が、想像以上に“感情を持って”見えたんです。
目が少し潤んで見える。口の形が歌に合わせて変化するたびに、歌詞の意味まで伝わってくるような気がする。“あ、今このキャラ、本当に歌ってる”――そんなふうに、作り手である自分自身が引き込まれたのは、ちょっとした驚きでした。
映像に「歌」が宿るということ
AIによる映像表現は日々進化していますが、その中でもLipSyncは「感情の扉」を開く技術なのかもしれません。
音と動きが重なったとき、私たちはそこに“誰か”を見出します。キャラがただ動くだけでなく、「想い」を伝えてくれるように感じたとき、それはもう“CG”ではなく、“物語”になるのだと感じました。

 
 
 

コメント


© 2023 by Modo Pictures

bottom of page