これまでの5年、これからの5年――「VR元年」の終焉から世界同時参加のXRライブエンタメへ
文化庁「メディア芸術カレントコンテンツ」のご依頼で寄稿させていただいた原稿が先ほど(2020/10/29)公開されました。 数か月かかって校正する大変な原稿でしたが、ご協力いただいた、皆様ありがとうございました。
■これまでの5年、これからの5年 ――「VR元年」の終焉から世界同時参加のXRライブエンタメへ (文化庁「メディア芸術カレントコンテンツ」, 2020/10/29公開) https://mediag.bunka.go.jp/article/article-16853/
今回の執筆では思うところがあって、 草稿から最終稿までの工程をmarkdownとGithubをつかって履歴を残すことにしました。 最後に、2020-12-19時点での振り返りも残しておきますので、この手の執筆の大変さに興味がある方はお楽しみください。
2020-08-03 草稿
2020-08-03 23:52:00
「”VR元年” の終焉から VR4.0 へ向かった5年」
2010年にアメリカ・カルフォルニア州ロングビーチのガレージで パルマー・ラッキー という17歳の少年が、最初のコンシューマHMD(ヘッド・マウント・ディスプレイ)のプロトタイプ、PR1を完成させた。 彼は、iPhoneの修理と転売で資金を稼ぎながら、当時、ほぼ実験的に存在していたVRディスプレイ機器「HMD」における、低コントラスト、高レイテンシ、低視野、高コスト、かさばりや重さといった問題を解決すべく、スマートフォン市場によって高性能・低価格していたLCDと光学技術を利用し、日曜大工のキットとして仲間の愛好家に販売することを目的に Oculus シリーズをクラウドファンディングサイト Kickstarter においてリリースした。
その5年後、彼のリリースした Oculus シリーズは世界に認知され、2014年3月に30億ドルでFacebookに買収された。
本稿ではVRの歴史を、アイヴァン・サザランドによる「ダモクレスの剣 - The Ultimate Display」が提案された1965年ごろをVR1.0と呼ぶことにする。当時提案されたこの「究極のディスプレイ」は機械的追跡システムの名前であり、必ずしも現在のHMDと一致する技術要素ではないが、既に「Sketchpad」(1963)にコンピュータグラフィックスやCAD、GUIの原点となるような提案を行っていたサザランドが、「CGでリアルタイム生成された世界に入りこむ」という概念は多くの研究者を刺激し、VRを「人間を拡張する技術」の研究分野として認知させた。
その後、1990年代、VR2.0がとして呼べる時代は、リアルタイムCGのためのハードウェアを中心とした時代であろう。シリコングラフィックス(SGI)社を皮切りに、グラフィックスワークステーション(GWS)による研究開発部門や映像制作専用機器での市場を切り拓くとともに、初期の産業用HMDやデータグローブといった高価なインタフェースやディスプレイ装置が提案されては消えていった。その後、この市場はゲームやCF/VFX映画といったコンテンツ産業を刺激し、ソニー「PlayStation」シリーズや、任天堂「Nintendo64」以降、マイクロソフトによる「Xbox」シリーズ、OpenGLやDirectXといったミドルウェアの整備により、標準化されたグラフィックスAPIにより、nvidia、ATI、PowerVRといったチップメーカーがしのぎを削りながら急成長する分野となった。VR2.0世代の研究開発はアーケードゲームやロケーション・エンターテインメント、メディアアート産業を中⼼に成⻑したが、その後の携帯電話、モバイル、SNSといった新しいメディアの爆発的普及のなかでは、リアルタイムCGはまだまだ⾼価な環境であり、コンテンツ開発と回収にかかるコストが⾼く、メインストリームにはなり得なかった。
VR3.0は2000年~2018年、狭義にはOculus Rift登場の2015年からOculus Go 2018年、一般向けHMDの普及とコンテンツプラットフォームの拡大期と定義づけられるだろう。急速かつ多様に拡⼤したゲーム開発産業のインフラとして成⻑したUnityやUnreal Engine などのゲームエンジンと、冒頭で紹介したパルマー・ラッキーによる「Oculus」や「HTV Vive」といったコンシューマHMDの融合による「コンシューママーケットの構築」が意味するところが⼤きい。これまで「B to B」だったVRが一挙に「B to C」になった時期である。VR専門のWebメディアが勃興した時期でもあり、エンターテインメントで刺激されVR3.0の初期にVRへ参入したプレイヤーをはじめ、当初VRに懐疑的だった他産業分野からの参入者に向けて「今年はVR元年」と毎年のように書きたてた時期でもある。なお当時の日本バーチャルリアリティ学会会長・ 岩田洋夫(筑波大学)はCEDEC2016の基調講演「VRはどこから来て、どこへ行くか」において「VRの歴史は平成の歴史とほぼ同じ」と語っている。
“VTuber”キャラクターのリアルタイム3D表現と既存メディアの融合
実際のところ、VR3.0は2017年にバブルの崩壊を起こしている。加熱するハードウェア産業と投資熱、コンテンツのコモディティ化に対して、市場の成⻑が追い付いていかない現象である。VRエンタメは⼀⾒華やかではあるが、過去にも何度もこのような期待に対する成⻑のジレンマ、「VRの輪廻」とも呼べる現象に落ち込んで「冬眠の時代」を迎えてきた。その期間は多くの場合、SIGGRAPH(註4)やヒューマン・コンピューター・インタラクション(HCI)(註5)、また、国際学⽣VRコンテスト「IVRC」といった学術研究の場において、若い才能や在野の開発者のチャレンジによる研究⽂化の深化が⾒られる時期でもある。パルマー・ラッキーのような才能によるイノベーションも、まさにそのような歴史の新陳代謝ともいえるだろう。
またかつてモバイル産業において⽇本発でiモードやソーシャルゲームといった独⾃の産業が⽣まれてきたように、VR3.0の終焉からVR4.0(註6)の黎明において「⽇本ならでは」の現象が発⽣していた。その最も重要なキーワードが「VTuber」もしくは「アバター」と「発信⽂化」、「ライブエンタメ」であろう。特に、2016年12⽉に活動を開始したバーチャルタレントキズナアイは限定的シンギュラリティ(人工知能が人間の脳を超える技術的特異点)を迎えた自称「スーパーAI」である。キズナアイはデビュー当初の自己紹介動画において自分自身を説明するために「バーチャルYouTuber」(以下、VTuberとして表記する)と名乗っており、この言葉は2018年のネット流行語大賞を獲得している(https://natalie.mu/music/pp/kizunaai/page/4)。世界中の開発者がHMDを⼿に⼊れて「VRでゲームをつくりたい」と開発し、コモディティ化する市場で戦っているこの2017年から2018年のVR3.0終焉期に「シンギュラリティの裂け目」ともいうべきVR3.0からVR4.0への大変革が日本で起きている。バーチャルな現実の限界を超え、「バーチャルな存在(プレゼンス)」が主導するVRが産声を上げていた。
キズナアイをはじめ、2018年末時点の観測では約1万人いわれる規模に拡大したVTuberはどのようにして生まれたのであろうか。そしてこれは日本だけが特別な環境だったのであろうか?技術的進化と歴史、産業、そして開発上の合理性など筆者自身の実際の目の前で起きていたことをここで綴っておきたいと思う。まずVTuberに代表される「バーチャルな存在」は、技術的にはHMDに使用されるモーションセンサーと、ゲームエンジンとそれに内蔵されている物理エンジンを用いてリアルタイム描画する3Dキャラクターを使ってパペットとして動かしてハイクオリティな映像を作り、OBS (Open Broadcastar Software, https://obsproject.com/) などを用いてストリーミングに変換しYouTube等の動画配信サービスにおいて配信を行う。女性型キャラクターのスカートや髪の毛のような「揺れもの」は過去のリアルタイム3DCGでは非常に緻密に制作する必要があったが、ゲームエンジンとVR用ハイスペックPCにおいてはリアルタイム物理シミュレーションに任せて、ある種の「出たとこ勝負」で表現することになる。このように「どこか自由で粗削りな魅力」を持ったVTuberたちの動画は、最初のうちはプロコンテンツとして認識されていなかったが、アンテナ感度の高い人々を中心に人気を得るようになった。最初は視聴者側に多くいた若く挑戦心のある開拓者たちは、ゲームエンジンを学び、より便利で高機能なシステムを開発し、資金のあるものは声優や3Dモデリングアーティストと協力し、より完成度高く幅広いVTuberをプロデュースしたり、またその未完成な技術の過程をコンテンツにしたりした。近年ではVRMのようなアバター共通フォーマットがその技術基盤を支えている。またモーションやセルルックのグラフィックスだけでなく、2017年ごろには音声合成やボイスチェンジャーを標準的に使うプレイヤーも現れた。男性が女性を演じる場合が多く「バーチャル美少女受肉おじさん」略して「バ美肉おじさん」といった文化として好奇の目とともに、一般に知られるようになった。筆者が開発するボイスチェンジャー「転声こえうらない」(https://vr.gree.net/lab/vc/)の利用者データによると、ボイスチェンジャーを利用するユーザーには女性も多く、生まれ持ってのジェンダーを超えた存在になりたい人々は多く存在するようである。3Dアバターによるバーチャルライブ配信アプリ「REALITY」も女性の配信者が非常に多い。
このような「アバターと配信文化」は日本独特、もしくは地域性のある市場なのであろうか。まず⽇本はアニメ、マンガ、ゲーム、ノベル市場が十分に大きく、それを受容する消費者文化が存在することは間違いない。「アイドルマスター」に代表されるゲーム由来の3Dモデリングで生成されたアイドルとガチャ課金を中心としたビジネスモデル、これらのキャラクターの声優によるファンコミュニティ醸成活動が商業的に大きな成功をおさめ、ゲームの中でアイドルのプロデューサーとなって数万円規模の課金を躊躇せずに行えるプレイヤーたちが、VTuberを作る側に立つことは偶然ではなく、また開発者ではなくホビイストであったとしても、VRChatのようなメタバースに自分のお気に入りの世界観をもったアバターを着ていくことは美的感覚から自然なことであるといえよう。かくして日本のアバター主導の技術開発やそれを強力に支える市場の成長は急速に進んだ。しかし近年では中国でもこれら「Anime, Manga, Game, Novel」の頭文字をとってACGNと呼ばれる市場は大きなインパクトを持っている。関連の技術分野では2007年に誕生したボーカロイド「初音ミク」が(実在のアーティストと並んで)世界各国で知名度を上げ、地位を築き上げている歴史も忘れてはならない。中国ではボーカロイド「洛天依(ルォ・テンイ)」がキャラクターIP市場や音楽市場においても人気である。欧米市場ではフォトリアリスティックなルックをリアリティと考える文化が根強いためアジアとは異なるタイムラインであるが、MARVELやディズニーのキャラクターになりたい子供たちはVRChat内にも多く存在するし、今後はNetflixやAmazonプライムビデオによる日本アニメ市場のグローバル化により、地域や人種ではなく単に嗜好されるコンテンツの属性として捉えたほうがよいかもしれない。
筆者は、アメリカ・ロサンゼルスで開催された「Anime Expo 2017」において、集英社「ジャンプVR」の呼びかけで「日本キャラVR祭」ににVRライブエンターテインメント作品「Manga Generator」と「Real Baby」を展⽰した経験がある。この時、日本代表チームとなったAnime Expo 2017出展の⾯々は、国内最⼤級のVTuberプロダクション「ホロライブ」を運営するCover株式会社や、「VRカノジョ」を発表し世界中で話題になっていたILLUSION社、後のVRノベル作品を代表する『東京クロノス』や新作『ALTDEUS: Beyond Chronos(アルトデウス: ビヨンド・クロノス』を開発するMyDearest株式会社であった。常に逆⾵に⽴ち向かいながら⾃分たちのつくりたいものに対する信念を突きとおしつつ、資⾦調達や短い期間でのリリース、ファンとのコミュニケーションを綿密に⾏ってきた日本のVRを代表するスタートアップ企業の面々であり、AnimeExpoに訪れた現地アメリカ(およびメキシコ、カナダなど近隣各国)の⼀般アニメファンと直接接することで、その「日本のVRに期待する熱量」を目の当たりにし、肌で感じている。「配信者文化」については、支える社会やインフラによって違いがある。中国では動画配信サイト「bilibili」を通して日本アニメとともにVTuberが人気コンテンツとして視聴されているが、中国における配信サービスは必ず当局による検閲及びコントロール下におかれており、日本のように「アバターを被って自由に発信できる」という理解はされるべきではないだろう。
Oculus創始者 パルマー・ラッキーとのグループフォト #AX2017 にて
機能や技術的な進化、歴史や市場環境に加えて「開発上の合理性」という視点で「これまでの5年、これからの5年」を説明することもできる。ゲーム、そしてVRエンターテインメントは多様であり、ステレオタイプ化することは避けたいが、日本の開発者や市場に期待されるVRゲーム、もしくは開発者自身が作りたいVRゲームの多くはACGNを原作もしくはイマジネーションの源泉としていくことは今後も変わらないだろう。そしてそのようなキャラクター主導のVR体験・VRゲーム開発コストの多くが、3Dモデル、モーション、ボイス、インタラクションのためのAIなど「3Dキャラクターとの相互作用」であり、作品として注目されるのもまたキャラクターである。YouTuberが「好きなことで、生きていく」とプロモーションをしていたのが2014年である。その傍らで、日本の一部のVRエンターテインメント開発者たちは、HMDを装着してVRゲームを開発したり「VRならではのプレイ」を模索し、提案し、資金を得て、開発していた。VRゲームの開発は当初、旧来のアニメーション作品やゲーム作品内の挿入動画のように、シナリオをしっかりと作りこみ、アーティストが丁寧にモーションアニメーションを製作し、有名な声優が声を演じ、ストレスなく品質高くでプレイできるよう、十分にテストされたプロコンテンツとして開発されていた。一方で、コンテンツを体験するユーザー側の非常に高いスペックのPCや知識が必要であり、OculusやSteamVRといったマーケットが成熟するまでは、大型ゲームセンターなどの「ロケーションVR」として試験的に展開する市場しか存在していなかった。日本市場はACGNのリアリティ、つまり「仮想世界のキャラクターを現実に存在させること」については高い品質が求められる。また高速に消費されるコンテンツ市場において、作りこまれたキャラクターのモーションやスクリプト、有名声優による演技から生み出す「予測できるコンテンツ」は、開発からリリース、回収までの期間がとても長い。VRゲームを長期間にわたって開発するのではなく、近いシステムを用いてアウトプットは出せないか。従来の動画製作とは全く異なる製作工程で、3Dキャラクター主導の独特な世界設計、架空のキャラクターならではのコンテンツを高頻度かつ視聴者の予測を上回るシナリオで、配信向きの声と複合的な才能を持つプレイヤー「VTuber」たちと「ライブエンターテインメント」を開発していくほうが、社会の受容の変化に答えるエンターテインメントの開発が継続的に行える。これが「HMDの普及に乗せてVRコンテンツを開発していくVR3.0」との開発上の合理性という意味での違いでもある。TwitterやYouTubeといった発信メディアの⽇々の活⽤によるファンとのコミュニケーション、さらにYouTube Liveやクラウドファンディングといったメディアを活⽤したライブエンタメを通した経済圏を市場とファンと共につくり出していく。HMDが主体のメディアではなく「VRで会いたい人に会いに行く」、これこそがVR4.0を特徴づける要素であり、具体的な技術要素として、同時接続可能なネットワーク技術や、コマース基盤、AIやパワフルでポータブルなHMDであると説明できる。
これからの5年:「ネットワークVRライブエンターテインメントの成長期」
これからのVRエンターテインメントの5年はVR4.1世代「ネットワークVRライブエンターテインメント」の世界に突入する。 発信・配信やソーシャルメディアによるエンゲージメント獲得は引き続き重要な文化であるが、 技術的には、ゲームエンジン、クラウド、WebRTC、5Gで加速する分野といえる。 さらに環境的には「With Covid」であることは無視できない。
この間に、バンダイナムコグループはVR施設「VRZONE Project i Can」の実験展開を2016年に成功させ、2019年7月に池袋サンシャインシティにアニメとゲームに入る場所というコンセプトで「MAZARIA」をオープンした。バンダイナムコの保有するゲームを中心とするIPやキャラクター産業を融合させたVRロケーション・エンターテインメント施設であり、間違いなく世界最高のVRエンターテインメント体験を提供する施設であった。
コロナウイルス感染症によってエンターテインメントパークや、ミュージアムといったメディア関連産業は大きな影響を受けている。直接的な感染症対策だけでなく、エンターテインメントの雰囲気を維持する上で、生死に関わるシリアスな問題や経済の冷え込みなどが視界に入った状態で、夢の世界への没入環境を味わえる人はそこまで多くはない。 エンターテインメント産業だけではない。学校教育や音楽、美術、パフォーミングアート、イベント、国際交流など、ありとあらゆる物理的な活動が分断されてしまっている。
筆者は運よくグリー株式会社およびグリーグループでライブエンターテインメント事業を推進する REALITY株式会社(2020年10月1日より株式会社 Wright Flyer Live Entertainment (WFLE)より社名変更)の研究開発部門 GREE VR Studio Laboratory において、この数年間をVRライブエンタメの未来を開発する研究に没頭することができた。スマートフォン向けバーチャルライブ配信アプリ「REALITY」は、VTuberによる楽しい番組と、個⼈の3Dアバターによる配信交流が⾏えるサービスがある。
実際にはコロナウイルスの爆発的感染の前から、様々なこの先の未来についての予測や仮説検証は行われていた。
例えば、ゲームを中心とした革新という視点でも、様々な実験が行われた時期であった。
2019年の夏・大型の台風10号が直撃し各地で大雨によりイベントの中止などが相次いでいたときも、REALITYでは音楽ライブを中心としたフェスを行い、実況パワフルプロ野球2018を使った「VTuber甲子園」や、マインクラフトをつかったVTuberによる長時間クリエイティブコンテスト「建築王」といったライブエンタメ企画が次々と実施され、バーチャルギフトやコメント、Twitterなどで記録的な人気を博していた。
東京ゲームショウ2018(TGS2018)では、ゲーム開発会社ニトロプラスのキャラクターである「すーぱーそに子」がフォートナイトをライブで実況しつつファンと交流するなど、話題となった。
「フォートナイト」は世界のこの分野を語る上で、最も見逃せないゲームタイトルのひとつである。
米国 Epic Games が2017年7月にリリースした無料プレイ可能、集めた素材で壁や階段などを作るクラフト要素のあるサードパーソン・シューティングゲームであり、100人同時にバトルロイヤルを行う。勝者はたった一人である。 2020年現在、日本の小学生でも知られているほどの人気であるが、リリース当初「バトルロイヤル」はゲームの1モードでしかなかった。
2018年2月に配信されたバトルロイヤルモードは、同時接続プレイヤーが開始当初340万人、同年11月に830万人に達する規模でプレイされている。 「100人同時」はネットワーク技術的には非常に高度なクラウド技術であり、また大規模で表現力豊かなリアルタイムグラフィックスシステムは、同社の提供するゲームエンジンである「Unreal Engine 4 (UE4)」をこの数年で大幅強化(もしくは Fortnite に最適化)していった。
メディア芸術分野において特筆すべきは、2019年2月に開催されたDJ・マシュメロ(Marshmello)とのコラボイベントであり、ゲーム内の Pleasant Park に1000万人を超えるプレイヤーが同時に接続した。この動画はイベントと同時に配信、もしくは世界中の Fortnite 配信プレイヤーから配信され、公式動画だけでも5300万回視聴されている。
■ Marshmello Holds First Ever Fortnite Concert Live at Pleasant Park https://www.youtube.com/watch?v=NBsCzN-jfvA
同様に2020年4月には人気ラッパー トラヴィス・スコットがコロナ渦において、非常にアート性の高いライブイベントを開催した。この動画は公式動画だけでも8100万回視聴されている。
■ Travis Scott and Fortnite Present: Astronomical (Full Event Video) https://youtu.be/wYeFAlVC8qU
旧来のゲーム産業のみでの視点では「無料のゲーム内イベントで何故?」という気持ちになるかもしれない。
Fortnite は基本無料だが、スキン(プレイヤーキャラクターの外見変更アイテム)や追加パックの販売で収益を得ており、2018年4月の月間売上は2億9600万ドル(約325億円)に達し、欧米では「社会現象」になっている。課金アイテムである「Vinderbucks(V-Bucks)」は、従来のゲームと同様、ゲーム内でのステータス強化に役立つが、コスチュームアイテムやエモート等は、このようなフェスやライブイベントに「着ていく服」、「踊れる踊り」としてプレイヤーの LTV (Life Time Value;長期で利用するユーザにとっての価値)を確実に引き上げている。
また他産業の表現者であるアーティストライブを実現する技術は非常に高い技術が要求される。 UE4という同じエンジンを使ったとしても、前述の Travis Scott と同様のリアルタイムエフェクト表現を実装する技術、特にシェーダー技術は、アーティスト的素養とエンジニアリング、特にCG分野の数学や物理の知識に加えてGPUをフルに活用した実装力が必要である。
このような背景もあり、REALITY株式会社は2020年7⽉13⽇に「バーチャルライブ制作プラットフォーム REALITY Live Stage」を提供開始した。スマホアプリからクラウド、UE4やUnityでのリアルタイムキャラクターやエフェクト、ライブ⾳響やモーションキャプチャーといったバーチャルライブのための垂直技術をパッケージ化する挑戦だ。 第1弾として2020年8月22日に世界的に注目されるエクスペリメンタル・ソウルバンド「WONK」のフルCGバーチャルライブ「EYES SPECIAL 3DCG LIVE」を開催する計画であり、今後の業界の反応を期待して観察している。
■「WONK - “EYES” Special 3DCG Live Teaser」 https://www.youtube.com/watch?v=Hw5lQ4RqgRU
今後求められる技術/体験/挑戦 “熱狂共有技術とビジネスインフラ整備”
前述のとおり、現在はゲームエンジンを利用し、事前に録画したモーションや音源を利用した表現によるライブイベントが目立っているが、VTuber分野においてはHMDを利用した没入型ライブ体験や、ライブ番組における生歌、生のダンスといった試みも多数行われている。
ファンの目も大変に肥えている。「これは収録なんじゃないかな……?」という気持ちで見る視聴者のさらに上を行く体験を常に作り出していく挑戦が必要である。
こちらの例は、ドコモ5Gチームが推進する VTuber「直感アルゴリズム」による2020年3月21日に実施されたライブ。
■ 直感アルゴリズム「以心伝心有灵犀-Borderless Live 5G-【360°Ver】」 https://youtu.be/b1ktw1V6GE4
コロナウィルスの渦中にあり、残念ながら会場であった東京・ベルサール汐留の会場は無観客ライブとなったが、日本と中国の人気VTuber6人の出演者により、会場演出やVR視聴による360度映像、YouTubeコメントによるインタラクション技術など見どころが多いライブとなった。
こちらの例は、ゲームの歴史に残る名作のVR版「スペースチャンネル5」の新作にあわせた REALITY 公式番組。 視聴者参加型のMMD利用のダンスコンテストの開催や、人気VTuberによる投稿動画、さらにライブで出演者が踊るといったサプライズも含めて構成していく。
■ 「スペチャンREALITY ダンス イン ザ ギャラクシー!踊ってみた選手権!」(4月1日放送) #銀河アリス #奏天まひろ #音葉なほ #インサイドちゃん Mark2 https://www.youtube.com/watch?v=Kmk2Xip5fVc
ゲームとVRの融合という視点では、アバターライブ用配信ツール「Virtual Cast」を使ったゲーム開発も行っている。 この番組では VTuberである九条林檎が企画した「透明人間になれる鬼ごっこ」が Virtual Cast 内で実装されている。
■ 「#九条林檎の挑戦状 Ⅱ」 6月26日放送 #九条林檎 #馬犬 #ANON vs #インサイドちゃん Mark2 #もちひよこ #東雲めぐ https://www.youtube.com/watch?v=e0vpJYxOyEY
筆者はこのゲームシステムおよび番組の開発に参加したが、コロナウイルスの渦中の3~6月において、従来型のスタジオや開発環境、HMD装着といった物理接触要素を完全に排した環境で問題なく開発を推進することができた。 制作手法も大きく変わっていくが、柔軟に変革していく技術が重要であろう。
なお前述の「直感アルゴリズム」は、2019年11月に開催された SIGGRAPH Asia 2019 において、7,154km 離れた東京とブリスベンをつないだ国際コラボレーションライブを行った。
■ SA19RTL - Global Bidirectional Remote Haptic Live Entertainment by Virtual Beings (full mix ver.) https://youtu.be/yTrDRKazksM
拍手や歓声を可視化することで、言語や文化を超えた交流を実現し、距離を超えたゲームや、難度の高い生の歌やダンスなどを現地にいる3000人のCG・インタラクション技術の専門家を前に大喝采を受けた。
そしてまた、このような物理的な国際会議のような場も、コロナウイルスの影響で急速に変化している。 2020年3月22~26日にアメリカのアトランタで開催された世界最大の学術VR会議「IEEE VR 2020」においては、Zoom会議のほかに、Mozillaが開発するネットワークWeb3D「Hubs」による3D空間でのポスター発表が採用され1500人の参加者によって利用された。
■ IEEE VR 2020 での発表の様子(Mozilla Hubs) https://hubs.mozilla.com/fYnpc8m/avatar-driven-vr-society-trends-in-japan/
2020年4月22~24日に開催された欧州最大のVRコンベンション「Laval Virtual 2020」においてはアバターチャットシステム「Laval Virtual World」が開発され、11,200人の参加者が参加した(発表の様子)。
そして、「ライブである証拠」をエンゲージメントにつなげる、という試みとして、筆者のラボにおいては「VibeShare」という技術で開発や公開実験を含めた発信を⾏っている。
■ VibeShare - 観客の想いを出演者に伝えるライブエンタメ技術 https://youtu.be/HFegJyePXJE
■ LiveHapTD - 観客と協力して戦うライブゲーム (empowered by VibeShare) https://youtu.be/UbakKnUxHE8
SIGGRAPH Asia 2019 での経験をさらに深め、視聴者やライブ参加者の感情、具体的には歓声や拍手、サイリウムの振りやエモート表現などの「Vibes」を、クラウド技術を使って出演者に触覚として体感できる多様な物理フィードバックにして共有している。 視覚に頼らず、位置や方向、触った雰囲気や衝突などを表現できるため、ゲームシステムや音楽ライブ、出演者のサポートシステムや教育応用など多様な利用な可能性がある。
以上のように、「With Covid」な世界においても、VRライブエンタメ分野においては『バーチャルだからこそできる工夫』が多くあり、危機に面している既存の産業からの要請や、新しく産まれようとしている産業、そして表現者の舞台や活躍場所も多く生まれつつある。 多くは個人のITスキルや知識によって工夫で解決できているように見えるシンプルなものも多い。そして実験環境では見えてこなかった課題も多く明らかになる。
今後5年で求められる技術、体験、挑戦とは、まさに既存のイベントや美術・芸術、教育、研究といった、エンタメとはとらえられていなかった分野における、最高峰のIT技術が求められる「熱狂共有技術とビジネスインフラ整備」なのであって、それは既存のメディア芸術分野である、ゲーム・アニメ・マンガ、そしてミュージアムから、ライブエンタメ、学校教育やワークショップといった知的探求活動や取り組み等にまで広がっている。
つまりメディア芸術やエンタメの延長といっても、中途半端な品質では太刀打ちができない産業課題も多い。組織的な取り組み、社を横断した挑戦、ユーザを巻き込んだ実証実験の繰り返し、メディア芸術産業としての飽くなきチャレンジが、この挑戦の最大の力となる。
願わくは、持続的な成長のための適切なインフラ整備のための公的投資や法整備も進めばありがたいが、それ以上に、本分野の挑戦が一般に知られることを願って筆を執らせていただいた。
最後に、コロナウイルスの渦中において、命を落とされた方、そしてイベントなどの事業中止によって、発表や表現の機会を失った方々に祈りを捧げつつ、筆を置きたいと思う。
初校戻し
(脚注案)文中のハイパーリンクで済ませられるのであれば文献等に絞ります (1)Youtuber オリジナルの動画や音楽コンテンツを制作して< YouTube >にアップロードしている人を指す場合にのみ使用
(2)VTuber 世間的には、YouTubeを含むREALITY、Showroomその他のプラットフォーム上で配信する人/者を総称して「Vtuber」が用いられている傾向にあり、一般名称として「VTuber」を使用。
その他引用等
-
「REALITY FESTIVAL3 OPENING SPECIAL KMNZ」2019年8月12日放送 #KMNZ
-
スペチャンREALITY ダンス イン ザ ギャラクシー!踊ってみた選手権! 4月1日放送 #銀河アリス #奏天まひろ #音葉なほ #インサイドちゃん Mark2
-
#九条林檎の挑戦状 Ⅱ 6月26日放送 #九条林檎 #馬犬 #ANON vs #インサイドちゃん Mark2 #もちひよこ #東雲めぐ
-
Marshmello Holds First Ever Fortnite Concert Live at Pleasant Park 53,639,668回視聴 2019/02/03
-
Travis Scott and Fortnite Present: Astronomical (Full Event Video) 81,622,806 回視聴 2020/04/26
レビューアーへの返信(2020-08-27)
※けっこう激しいレビューアーとのやり取りがありました。 最終原稿からは読み取れないと思いますので遺しておきます。
Q1・「狭」ではなくてOKでしょうか 狭視野という日本語は一般的ではなく、英語はnarrow-field, small-field 両方あり低視野も正しい、低FOVという意味で低視野と表現しましたが、疑問にあるように「狭視野」とするか「低視野角」、「狭い視野」のほうが適切かと考えます。
Q2・ネットや参考文献ではダモクレスの剣は1968年、論文The Ultimate Displayの発表が1965年ということですが、この表記でよろしいでしょうか
The Ultimate Displayとダモクレスの剣が論文、特許、命名、文献でそれぞれ異なり、それは開発者としては「当然数年かかる」と解釈し、 “本稿ではVRの歴史を、アイヴァン・サザランドによる「ダモクレスの剣 - The Ultimate Display」が提案された1965年頃をVR1.0と呼ぶことにする。” としてできるだけ、読者のわかりやすさを重視してどなたかが公開されているYouTubeのURL [https://www.youtube.com/watch?v=NtwZXGprxag] を引用していますが 「この表記ではよろしいでしょうか?」と問われると、この数字の信憑性を確定させるには論文数本でも足りないと考えます。 HMDの原型となるステレオ立体視ディスプレイの基本特許はモートン・ハイリグの1957年です。 センソラマの公開は1962年。
HMD=VRではありませんが、世間的な理解から乖離してセンソラマの話をするコンテキストではありません。 また2018年のSIGGRAPH記念講演「VR@50」での本人ら関係者の証言
この講演で 「Virtual Reality」という言葉を提案したのはアイヴァン・サザランドでもなく、ジャロン・ラニアーでもなく、実は元々はフランスの脚本家アントナン・アルトーが美術用語として生み出したという説が語られています。
https://twilog.org/o_ob/month-1808/3
結局のところ「このあたり」というエポックを区切るうえで「1965年頃」としています。
Q3・既に「Sketchpad」(1963年)(註●)→前に コンピュータプログラム 入れますか?Wikipediaへのリンクではなく、註釈でご説明願いします
「Sketchpad」はデモシステムであり、GUIを説明する上ではソフトウェアですが、ハードウェアだけでも成立しない、パソコン登場以前のコンピュータシステムであり、汎用的なプログラムではありません。この時代はそのようにソフトウェアの研究だけでなく人間とコンピュータの境界を研究するという研究が未知の研究分野として存在し、そのような背景から提案されたサザランドの研究室内でのデモになります。
https://en.wikipedia.org/wiki/Sketchpad
そういう「提案を行っていた」、ということでコンテキストとしては興味がある人がWikipediaを読んでいただければそれでよいのではないでしょうか?逆に、どのような注釈をここで書くことで原稿の信頼性や読みやすさが上がるのでしょうか?
Q4・初期の産業用HMDやデータグローブ(註●)といった高価なインタフェースやディスプレイ装置が提案されては消えていった →注釈をお願いします
「提案されては消えていった産業用HMDやデータグローブ」についての注釈ですが、WWW登場前の倒産した企業の製品について「提案されては消えていった」をどのように表現することをお望みでしょうか? 倒産前に買収した企業のURLを貼っても当時の資料があるわけではありませんし、個人蔵のチラシや雑誌、壊れた機材類を示したとしても「消えていった」を表現したことになりますでしょうか? 脚注作文で表現するのは難しいと思いますが、弊ラボ収蔵の動画を紹介することは可能です。
[https://www.youtube.com/watch?v=ghxe2jfbbVg]
Q5・ソニー「PlayStation」シリーズや、任天堂NINTENDO64以降、マイクロソフトによる「Xbox」シリーズ、OpenGLやDirectXといったミドルウェアの整備により、標準化されたグラフィックス・アプリケーションプログラミングインタフェース(API)により、 →などゲーム機の進化を促し、 トカ入ル?
「トカ入ル?」は校正記号でしょうか?不勉強ですみません。 ゲームコンソールと、産業用GWSのためのAPI、ゲーム用APIが融合したことで成長した、ということであえて列挙なのですが、時期の表現ですがわかりづらいようでしたら、「コンシューマゲーム機やグラフィックス用API」として短くざっくりカットしていただくのが良いのではないでしょうか。 長くなる方向にしか修正できませんし、弊社としては正確にはTMや(R)表記が必要になり、加えてこれらの商標許諾を弊社から問い合わせて一般的な読者の理解から遠い表現にすることは本旨ではないと考えます。
Q6・NVIDIA、ATI Technologies、PowerVRといったチップメーカーがしのぎを削りながら→これのみ社名ではなく製品名のようです。ご確認ください
すみませんが、これを「社」と表現せずに「チップメーカー」とあえて表現しているのはなぜか?を考えてみてはいただけないでしょうか?NVIDIAは現存していますが1993年以前は存在しません、SGS-Thomson Microelectronics(のちのSTマイクロエレクトロニクス)からのGUIアクセラレータの開発が最初の仕事を獲得しています。またGPUシリーズ名として知られているGeForceは当時から存在したGPUではありません。ATIも社としては現存していません。 現在はAMDでありソフトバンクです。
ATIもチップメーカーではありますがAMDです。PowerVRに至っては、会社としてはビデオロジック(現在はイマジネーションテクノロジーズ)が開発していますが、製造はNEC、STマイクロエレクトロニクス、グラフィックスカードとしてはMatrox、メルコ、アイ・オー・データ機器、ゲーム機はドリームキャストやPlayStationVita、さらにIntel AtomやApple AXシリーズ、TI社OMAPなどに組み込まれているので「グラフィックスチップ」として表現するのは非常に難しい存在です。あえて修正するのであれば「GPU開発各社」でしょうか、それも現在の会社名やブランド名を統一して述べたとしても当時のプレイヤーとしての貢献や様相を表現したことにはならないのではないでしょうか。
Q7・ SIGGRAPH(註●)やヒューマン・コンピュータ・インタラクション(HCI)(註●)、→註釈をお願いします
Wikipedia等の一般的な外部引用で代替いただきたいです。 メディアとしてはメディア芸術カレントコンテンツの過去原稿や貴サイト自身の内部リンクから引用いただくのが適切ではないでしょうか。 https://mediag.bunka.go.jp/antenna/siggraph-asia-2018/ https://mediag.bunka.go.jp/project/media1/
用語集を構築することが目的であれば、著名原稿ではなく別途、調査等でご発注いただきたいと考えます。
Q8・『VRカノジョ』を発表し→前に VR育成シミュレーションゲーム 入れますか?
それ以前に、質問させていただいた「本コンテンツを扱うことが適切かどうか」という質問に答えてください。また提案されている「VR育成シミュレーションゲーム」とは、メーカーや開発者が定義した説明でしょうか?育成要素シミュレーション要素があるのでしょうか、アドベンチャーゲームという分類です。 これを他社の人物が文化庁の名のもとに、勝手に書くことで、どれだけの人々に迷惑がかかるか想像したことがありますでしょうか。このコンテキストを精緻に読んでいただきたいのですが、
—なお筆者は、きっかけとしてアメリカ・ロサンゼルスで開催された「Anime Expo 2017」において、集英社ジャンプVRの呼びかけで「日本キャラVR祭」にVRライブエンタメ2作「Manga Generator」と「Real Baby」を展示して、現地アメリカの一般アニメファンと直接接したときに、この時代の変革を肌で感じている。この時のアニメエキスポ出展の面々は、国内最大級のVTuberプロダクション「ホロライブ」を運営するCover株式会社や、「VRカノジョ」を発表し世界中で話題になっていたILLUSION社、東京クロノスを開発するMyDearestであり、常に逆風に立ち向かいながら自分たちの作りたいものに対する信念を突きとおしつつ、資金調達や短い期間でのリリース、ファンとのコミュニケーションを綿密に行ってきた企業のみが生き残っている点も興味深い。—
立場を現職ではなく、前職に置いていることで、企業間の衝突を少しでも和らげる立場をとっています。さらに、この集英社さんのWebサイトには「VRカノジョ」は掲載されていません。少年誌である「ジャンプ」というメディアにおいて、本コンテンツは(具体的にどのようなシーンが問題があるかなどは問題も指摘も審査もされずに)Webからは削除されています。しかし、実際には担当者の好意で展示が実現し、実際には現地では大変な人気になり、その後、社会的な理解を得られました。このような注釈として書き残すのも難しい題材を、最低限の表現として海外SteamのマーケットURLに日本語タグを添えてとともに「VRカノジョ」とさせていただいております。
Q9・Oculus創始者 パルマー・ラッキーとのグループフォト #AX2017 にて →Twitterへのリンクではなく、掲載に問題がなければ写真データとしてご提供ください。
撮影者としては本人にTwitter投稿許可を得て投稿しています。TwitterURLの利用は許諾可能ですが、別メディアへの掲載はTwitter利用規約(具体的にはフェアユースに該当するかどうか)、およびパルマ―・ラッキー氏への肖像権および掲載許諾が確認ではないでしょうか? https://help.twitter.com/ja/rules-and-policies/copyright-policy 当方は判断する立場ではないので、貴メディアとしてご確認もしくは許諾取得お願いいたします。
Q10・VR4.0世代(註★) →VR4.0に関する白井様の論文をこちらの註として掲載させていただければと思います。
「VR4.0」の定義は学術文献や講演において行っています。どのような論文が適切で、どのようなフォーマットで引用されるのかは指定がなければ、Webメディアの読者に対しては違和感が大きい引用になると考えます。関連論文や講演資料を列挙しますが、資料の掲載方法については編集側でご提案ください。
<初出~公開順>
-
「リレーコラム:VR3.0→4.0の間に咲いたVTuberという新人類の研究」, 情報処理学会学会誌, 60巻, 第3号, pp. 286 - 286, 2019-02-15
-
近未来教育フォーラム2019公開版 “In Real Time” リアルタイムグラフィックスの世界とVTuberが牽引する新たな人類 20191128
-
L. Bredikhina, T. Kameoka, S. Shimbo and A. Shirai, ”Avatar Driven VR Society Trends in Japan,” 2020 IEEE Conference on Virtual Reality and 3D User Interfaces Abstracts and Workshops (VRW), Atlanta, GA, USA, 2020, pp. 497-503, doi: 10.1109/VRW50115.2020.00103.IEEEVR2020 動画 [https://www.youtube.com/watch?v=ET-_R2Hly88]
-
“Research and Development for Avatar-Driven Virtual Society in VR4.0 Era” June 27, 2020 https://www.youtube.com/watch?v=hVR82Rb7eqM
Q11・技術的には、ゲームエンジン、クラウド、WebRTC(註●)、第5世代移動通信システム(5G)で加速する分野といえる。→註釈をお願いします
略語ではありませんし、技術解説文書ではないという理解なので、コンテキストから「WebRTC」は「WebRTC」なので注釈や解説はお断りします。読者がどのような読み手なのか、いったんGoogle等で検索していただいた上で、改めてご検討ください。URLでハイパーリンク記載する場合は Googleによる https://webrtc.org/ や、Mozillaによる開発者向け情報に日本語解説もありますので、十分かと考えます。
<https://webrtc.org/ より引用>
Webのリアルタイム通信(Real-time communication for the web) WebRTCを使用すると、オープンスタンダード上で動作するリアルタイム通信機能をアプリケーションに追加できます。ピア間で送信されるビデオ、音声、および一般的なデータをサポートしているため、開発者は強力な音声およびビデオ通信ソリューションを構築できます。このテクノロジーは、すべての主要なプラットフォームのネイティブクライアントだけでなく、最新のすべてのブラウザーで利用できます。 WebRTCの背後にあるテクノロジーは、オープンWeb標準として実装されており、すべての主要なブラウザーで通常のJavaScript APIとして使用できます。 AndroidやiOSアプリケーションなどのネイティブクライアントでは、同じ機能を提供するライブラリを利用できます。 WebRTCプロジェクトはオープンソースであり、Apple、Google、Microsoft、Mozillaなどによってサポートされています。このページは、Google WebRTCチームによって管理されています。 WebRTCでできること WebRTCには、カメラやマイクを使用する基本的なWebアプリから、より高度なビデオ通話アプリケーションや画面共有まで、さまざまなユースケースがあります。
https://developer.mozilla.org/ja/docs/Web/API/WebRTC_API
WebRTC (Web Real-Time Communications、ウェブリアルタイムコミュニケーション) は、ウェブアプリケーションやウェブサイトにて、仲介を必要とせずにブラウザー間で直接、任意のデータの交換や、キャプチャしたオーディオ/ビデオストリームの送受信を可能にする技術です。 WebRTC に関する一連の標準規格は、ユーザーがプラグインやサードパーティ製ソフトウェアをインストールすることなく、ピア・ツー・ピアにて、データ共有や遠隔会議を実現することを可能にします。 WebRTC は、相互に関連したいくつかの API とプロトコルで構成されており、これらが連携してこれを実現しています。ここで紹介するドキュメントでは、WebRTC の基礎知識、データ接続とメディア接続、両方の設定方法と、使用方法などを理解するのに役立ちます。 実のところ、このMozillaの日本語原稿は私がボランティアで翻訳したものです。
これを別の解釈を加えて別のエディションを貴メディアで提供することにどのような意味がありますでしょうか。Google中心で公式とされている WebRTC.org を引用するのが正しいでしょうか、それとも私がボランティア著者としてMozillaのドキュメントを引用するのが正しいでしょうか。Webに書かれているドキュメントのほうが正しく、Mozilla(MDN)のように常に新しい情報が上書きされるWebへのリンクのほうが正しいと考えますが、それでも「注釈をお願いします」といたしますか。
執筆を終えて(2020/12/19加筆)
ものすごい忙しい時期に強制力の強い感じで複数回の校正、加筆作業に巻き込まれてしまって、本当につらい原稿でしたが、公開後は多くの方々に感動をもって読んでいただけたようなので 無事に公開にたどり着けて良かったなと思います。
ただ、やっぱりこの手のレビューの仕組みはよくない! 相手の顔が見えない状態で、相手の状況もわからずに依頼を回すやり方もよくない。
過去の自分の著作がこのメディアに扱われた時に、すごく高いところから一方的なことをいわれるのがとてもつらかったので、 「自分の原稿だけはそうならないように頑張ろう」という思いだけでがんばりました。 7年で雪辱が晴らせたのであれば、まあいいほうではないでしょうか。
中身に関しては、企画側は「PlayStation5の発売に合わせてVRエンタメについて書いてください!」という依頼で、 『なんで文化庁がそんなふうにPlayStationのために依頼するんだよ…』という気持ちもないことはないのですが、 それはさておき、他に依頼されていた著者が以下のようなラインナップで、尊敬する方々でちょっと感動ありますね。
■ これまでの5年、これからの5年――ゲームデザインを読み解くキーワード (遠藤 雅伸 2020年10月12日 更新)
■これまでの5年、これからの5年――ゲーム実況が生み出した「他人エンターテインメント」の楽しみ方 (黒川 文雄 2020年12月2日 更新)
VRエンタメを長年研究してきたけれど、「あえてゲームの話をしなくてよかった!」と思いました。
遠藤先生は今年はCEDECペラコンの件で大変だっただろうな…。 ところで、芸術科学会NICOGRAPH2020で遠藤先生とそこの学生さんを拝見しました。 手法としての稚拙さとかはあると思うのですが、それは指導者のスキルとか本人の素養であって、 こんな炎上があっても学生さんたちはとても元気で、後輩の皆さんの力強さを感じました。 ぜひ大人たち、おっさんたちを超えていって欲しいなと思います、これは割とマジで。 こんな原稿を書くおっさんも、昔は皆さんと変わらない、ただのゲームが好きな学生だったんです。
リアルアーティストとコラボレーションするライブの話のその先
さいごに、 ついにゲームの世界とつながった話が公開されました。明日です!
■湘南乃風 12/20に行われるオンラインライブへの意気込みや見どころ、彼らの「挑戦」をABEMA独占公開!|12/20 19:45〜 アベマでOA! https://youtu.be/4tsSHrQK7o4
https://www.youtube.com/watch?v=M5kbO19PQ68
2020年12月20日(日)20:00からです!見逃し配信も短いのでぜひライブで見てください!! 何度も書きますが「録画じゃない」ですからね!! 詳細 → http://www.134r.com/topics/dennokukan2020/