オススメ機能
Twitter
お気に入り
記事履歴
ランキング
4Gamer.net
お気に入りタイトル/ワード

タイトル/ワード名(記事数)

最近記事を読んだタイトル/ワード

タイトル/ワード名(記事数)

LINEで4Gamerアカウントを登録
[CEDEC 2015]Unity上でVOCALOIDの歌声をシームレスに利用できる開発環境「VOCALOID for Unity」の可能性を開発者に聞く
特集記事一覧
注目のレビュー
注目のムービー

メディアパートナー

印刷2015/08/27 18:28

イベント

[CEDEC 2015]Unity上でVOCALOIDの歌声をシームレスに利用できる開発環境「VOCALOID for Unity」の可能性を開発者に聞く

 CEDEC 2015の初日に合わせて,ヤマハとユニティ・テクノロジーズ・ジャパンが発表した「VOCALOID for Unity」関連記事)。これは,ゲームエンジン「Unity」上でVOCALOIDの歌声合成エンジンがシームレスに利用できるという触れ込みの開発環境のことだが,それは具体的にどういう意味で,どういう限界があって,どのように活用できるのだろうか。Unityブースでデモが出展されていたので,開発者に直接話を聞いてみることにした。

ヤマハ「VOCALOID for Unity」特設サイト



Unityから直接VOCALOIDをコントロール


ヤマハのVOCALOIDプロジェクトリーダー 石川克己氏(右)と,CEDEC 2015の出展に向けて突貫でデモを完成させたyamaha+推進室 VOCALOIDプロジェクトの山本尚希氏(右)。失礼ながら,Unityの中の人が作ったデモだとばかり思っていました
 従来,Unity上でVOCALOIDを使うには,VOCALOIDで歌声を生成してから,その音源データをUnityに取り込むというワンクッションが必要だった。これ自体は,極めて当然のことだ。
 しかし,この方法でVOCALOIDを使う限り,ゲームの状況に応じて歌の調子を変えたり,ゲームの中でVOCALOIDによる歌が自動生成されたりといったことを実現するためには非常に手間がかかる。Unity側からデータをVOCALOIDに渡して,そのデータを元に歌声を動的に生成するということができないため,「変化した結果」や「自動生成される歌のパーツ」をVOCALOIDで作っておく必要があり,それをパズルのように組み合わせるしかなかったのだ。

 ところがVOCALOID for Unityによって,VOCALOIDの歌声生成エンジンに対してUnityから直接データを渡せるようになり,その生成された歌声データをUnity側が直接受け取ることも可能になるという。従って,「ゲームの中でVOCALOIDの歌い手がダメージを受けたら,そのダメージに応じて声を変化させる」といったことが,ただのパラメータの受け渡しだけで実現できるのだ。

Unity
 ただし,先に事務的な話をしておくと,現状においては権利関係の問題があるため,歌声ライブラリとして「初音ミク」を使うといったことはできない(予定はあるそうだが)。当面は,VOCALOID for Unity用に提供される「Unityちゃん 歌声ライブラリ」を利用することになるだろう。CEDEC 2015に出展されているデモでは,まだいささか歌声に不自然さを感じる部分があったものの,正式リリースまでにリファインしていくとのこと。
 なお,正式リリースは2015年12月に予定されている。


VOCALOID for Unityの使い方はユーザー次第


 さて,この画期的な統合環境を用いることで,実際にどのような可能性が開けるのだろうか。
 すぐに思いつくのは,ゲームの進行に応じて歌い方が変わる,VRで一緒に歌う,あるいは究極的な話として「歌う人工知能の誕生」といったことが挙げられる。また,アイドル系の音ゲーでは現状,キャラクターのパラメータが成長しても,歌い方や歌声そのものが成長することはないが,これを成長していくようにして,より「ライブ」を感じさせる演出も可能になるだろう。
 近年では,Unityがゲーム以外のシーンでも利用されるケースが目立つようになった。それらに対して,VOCALOIDが提供されるという点でも期待が持てる。

Unity

 ただ,「VOCALOID for Unity」を開発したヤマハでは,まだ具体的に将来のビジョンを固めていないという。彼らもまた思いつくことは無数にあるものの,まずはユーザーの手に委ねて,その可能性を模索してほしいというのが,真の狙いなのだ。ヤマハのVOCALOIDプロジェクトリーダーである石川克己氏は,その点についてはっきりと「これで何ができるか,試してみてほしい」と語っていた。
 ちなみに今回のプロジェクトは,ヤマハからUnity側に持ちかけたものだという。VOCALOIDプロジェクトの新しいリーダーとなった石川氏は,VOCALOIDをインタラクティブツールとして提供することで,新しい驚きをVOCALOIDにもたらしたいと考えているのである。
 

ヤマハからの挑戦状


 最後に,技術的な面を多少補足しておこう。
 まず,「VOCALOID for Unity」によって,UnityからVOCALOIDをどの程度までコントロールできるのかという疑問については,「VOCALOIDの操作パラメータは全部いじることができる」との回答を得た。理屈の上では「VOCALOIDに自然な感じで歌わせるデータへと,自動的にデータを補正してくれるUnity用プラグイン」も作成可能だという。

 また,どのようなデータをVOCALOIDに渡せば「それらしく歌うか」という点については,7月に発売された「VOCALOID4 Library Sachiko」(※歌手 小林幸子さんの歌声を元に制作されたライブラリ)において,「こぶし」や「しゃくり」を再現するためにはどう加工すればいいかという知見を確立しているそうだ。「VOCALOID for Unity」の開発にあたって,さらにどうすればへたな歌に聞こえるかという研究も進めているという。VOCALOIDが「人間らしいへたさ」で歌うと,独特のインパクトがあるとのことなので,いろいろな意味で期待したい。

Unity

 ゲームに詳しい人であれば,音を作るための「操作」が加わることによって,遅延が生じるのかということが気になるかもしれない。音ゲーのようにシビアにタイミングが問われるゲームでは,ほんのわずかな遅延であっても結果に大きな影響を与えうる。
 ただ,そもそも歌声の生成においては,遅延は避けられないという問題がある。子音+母音で作られる歌声は,子音が先に発声されるが,音符は母音が発声されるタイミングに置かれている。そのため,音符をトリガーにする限り,「ちゃんとした歌声」として生成し,かつ遅延をゼロにすることは不可能なのだ。
 とはいえ,「VOCALOID for Unity」では,「遅延は起こるもの」として放置しているわけではなく,2つの動作モードを用意するという対策を講じている。

 1つめのモードは,子音の発声を短くして,同期を重視したモードだ。この場合,歌声のクオリティは低下するが,リアルタイム性は向上する。音ゲーなどに適しているモードといえるだろう。
 もう1つは,500ms (ミリ秒) +α程度の固定レイテンシを持つモードで,こちらは子音を先行して生成することになる。これにより,歌声の品質が向上するので,0.5秒程度の遅延があっても構わないゲームであれば効果的というわけだ。

Unity

 ある意味,「VOCALOID for Unity」はヤマハからの挑戦状と言えるだろう。強力なユーザーコミュニティの中で育ってきたVOCALOIDが,同じく強力なコミュニティを持つUnityとリンクすることで,どんな新しい体験が生まれるのか。大いに期待しつつ,その動向を注目したい。

ヤマハ「VOCALOID for Unity」特設サイト


4Gamer「CEDEC 2015」記事一覧

  • 関連タイトル:

    Unity

  • この記事のURL:
4Gamer.net最新情報
プラットフォーム別新着記事
総合新着記事
企画記事
トピックス
スペシャルコンテンツ
注目記事ランキング
集計:07月17日〜07月18日