突然ですがお店で美味しい料理を食べてた時に、心の中で「全く同じレベルは無理でも、コレ自分で作れないかな…」と思ったりしませんか?
思いますよね?
そう、思うんですよ。
自分は神田たまごけんのカウンターに置いてある瓶のピクルスが美味すぎて、ずっと美味しいピクルスについて調べていた時期がありました。
今回はそんなお話。
どうも!最近触ってない一眼レフがカビてないか怖くて見れない
Gettsunと申します。
とある休日…
Vtuberの配信を観ていた時に、心の中で「全く同じレベルは無理でも、コレ自分で作れないかな…」と思ったんです。
最近は別に特別な知識や機材がなくても、スマホにVtuberになれるアプリを入れるだけで配信できちゃったりして本当に敷居が下がりましたよね。
流石に全身トラッキングするようなものではないにしろ、例えばゲーム配信したり雑談配信するのであれば必要十分ですよね。
でも人が作ったアバターや、決められたプリセットから容姿をキャラクリするんじゃなくて、自分で描いたイラストで自由に作れたらいいなと思いませんか?
思いますよね?
そう、思うんですよ。
という事で今回の勝利条件は“ゲーム画面の端に自作Vtuberを召喚すること”です。
そんな訳である日のお昼頃、自作Vtuber召喚の儀は唐突に始まったのでした。
キャラクターを決めよう
これについては早々に自分をVtuber化する事に決めました。
イラストを新規で描くのも面倒なので、YouTubeチャンネルのエンディングで使ってるイラストを素材に使います。
ところで私GettsunがVtuberになるとしたら、名前はどうしましょう。
こういうのは形から入るのが重要です。
Vtuberといえば「漢字の苗字+カタカナの名前」が定番のパターンでしょうか。
これを自分に当てはめるとすると、「ゲツ」+「ツン」となる訳で…
決まりました、「牙兎ツン」でいきましょう。
なんか剥ぎ取りで「牙兎の毛」とか手に入りそうな感じ。
大きく横道に逸れましたがここからが本題。
召喚する準備をしていきましょう。
イラストを解体していく
まずやる事は既存絵を身体の部位毎にバラバラのレイヤーに解体していきます。
ただし投げ縄ツールでパーツを分けるだけでは、関節などが動いた時につなぎ目が見えてしまうので、境界部分を描き足していきます。
Live2D Cubismでモデリングしよう
満を持して「Live2D Cubism」の出番です。
昨今様々なソーシャルゲーム等で立ち絵のキャラが動きまくってますが、大体このソフトの仕業です。
ちなみに調べてみたらLive2Dはあくまで社名らしいので、正式にはソフト名は「Cubism」なのかもしれないですが、この記事ではLive2Dと呼んでいきます。
ほら…車のミニクーパーみたいな感じで、その方が親しみがあるかなって。
Live2DはPC(Mac・Windows)に対応していて、パーツの数などに制限がある「FREE版」が無料で利用できます。
正に今回の様な情報量の少ないイラストにはもってこい。
先程解体が済んだイラストをLive2Dに取り込みます。
後は画像解析でいい感じに立体にしてくれる…と思いきや、自分で「この角度の時、このパーツはこんな感じに見える」っていうのを手作業でモデリングさせていきます。
この変形させる作業は粘土をこねるのと近い感じで、こねこねしてる内に正解が分からなくなってきて、デッサンが狂い始めたら完成です。
狂ってきたデッサンを修正しようと足掻く事で、人の形を保てなくなるので諦めが肝心。
VTube Studioで息を吐き込もう
遂にLive2Dで作ったモデルを、実際にこちらの動きとリンクさせる「トラッキング」に挑戦します。
このトラッキングは色々ソフトがありますが、今回はLive2D社が直々に開発した配信ソフト「VTube Studio」を使っていきます。
もちろんWebカメラなんて持ってないので、パソコンではなくiPhoneに召喚する算段です。
そう、VTube StudioはPC版(Mac・Windows)だけではなく、スマホ版(iOS・Android)もあるんです。
こちらもそれぞれ無料版と有料版があるんですが、今回は低コストで召喚したいので無料版でやっていきます。
Macを経由してiPhone内のVTube Studioアプリ内の指定フォルダにLive2Dのモデルデータを入れてみます。
動いた…!
ツンくんが!動いた…!!
あ!いや!?
でもなんかおかしい!
顔の動きがトラッキングと上下逆だ!!
くそッ!なんてことだ…こんなに致命的なのに…ブログじゃ伝わらないトラブルだ!!!
こちらが見上げるとなぜか画面のツンくんは俯いてしまいます。
決して交わることのない、さながら両者は陰と陽。
原因は早々に特定したものの、これをVtube Studio上で反転させられないか四苦八苦しますが、そもそも項目そのものが見つかりません。
結局大元のLive2D内のパラメータを上下逆に修正しないといけないみたい。
そうなると取り込み用のデータを再度生成する必要があるので、結構工程が巻き戻ります。ヒー。
そもそもLive 2D内で設定済みのパラメータをどう反転するのかが検索しても見つからず、苦戦しましたが無事修正完了。
かなりの時間を浪費しましたが再び姿を拝むことができました。
ここでなんか眉毛がトラッキングと上下逆になっているのに気づいたのですが、気づかなかったことにします。
OBSに召喚せよ
後はこのiPhoneの画面をパソコンで表示して、普段使っている配信ソフト「OBS」へ召喚したらゴール!
勝ったな。風呂入ってくる。
さっそくMacの標準ソフト「QuickTime」でiPhoneの画面をMac上にミラーリングして…
なぜか3秒経つと必ずエラーで止まるトラブルが発生。
何度挿し直しても決まって同じ状態
この状態でも写真の取り込みだとか音楽の同期だとか他の事は問題なくできるので、ピンポイントで映像収録だけ何故かバグります。えー。
こうなるとMacにPC版のVTube Studioをインストールして、Webカメラを買ってきてトラッキングするしかないという窮地に追いやられる私。
もはや他に打つ手は残ってないのでしょうか?
・
・
・
あ り ま し た 。
PC版のVTube Studio上で、スマホ版のカメラをトラッキングに使うという合体必殺技が。
これならWebカメラ以上に高性能なiPhoneのカメラでトラッキングしつつ、Macのパワーでモデルが動かせる訳です。
そしてそのまま普段収録で使っているソフト「OBS」上で、VTube Studioのウインドウを表示させるだけでゴールという道筋が見えます。
PC版のVTube Studioでモデルを読み込んでから、背景をグリーンバックにした後、OBSでクロマキー合成します。
このクロマキー合成の設定が難しいんじゃないかと思っていたんですが、めっっっちゃ簡単で30秒くらいで終わりました。
ッ召喚!!
かなりぽくないですか?
ぽいですよね?
そう、ぽいんですよ。
これはもう、れっきとしたVtuberでしょう。
これで普段通り動画を収録したり、配信ボタンを押せば生放送ができます。満足。
さいごに
対戦ありがとうございました。
お昼から作業を始めて、気がつけば窓の外はすっかり夜。
だいたい7時間くらいやっていた感じ。
やってみて実感したことは「世の中にVtuberは溢れているかもしれないけれど、その全員が生まれてくるまでに誰かの愛が込められているんだ」っていうこと。
当たり前のことだけど、すごいよ本当に。
疲れた。
よし、ホロライブ観よっと。
よろしければ他の記事も読んでいってね!
コメント