東池袋52クリスマスライブVR配信概要

2018年1月

東池袋52

配信概要

\東池袋52 ついにサンシャイン噴水広場に登場!/

12月23日(土)15:00~、東京・東池袋にあるサンシャインシティ、サンシャイン噴水広場で開催される「サンシャインシティ”Make” a Christmas wish クリスマスライブ」のライブパフォーマンスを、ステージ正面およびステージ上に設置した4K360°VRカメラにてライブ配信を行います。

概要

・イベント名 :「サンシャインシティ”Make” a Christmas wish クリスマスライブ」
・配信内容 :・東池袋52のライブパフォーマンスを2つの視点から生配信

ライブ配信日時

・配信日時:2017年12月23日(土) 15:00~15:30 (予定)
・配信URL:・https://www.youtube.com/watch?v=cMRu-rxIw_k
※ライブ終了後も、2018年1月8日(月) 24:00まで、同一URLでアーカイブをご覧いただけます。
※会場内では(株)クレディセゾンや取材メディアによる写真や動画撮影が行われます。会場内のお客様が写り込む場合がありますので、あらかじめご了承ください。

推奨視聴環境

インターネット環境
・20Mbps以上のインターネット環境を推奨。高品質な4K動画での配信となるため、モバイル端末で視聴する場合は十分なスピードの出るWi-Fi環境でご視聴ください。

視聴デバイス

・PC(WindowsおよびMac)
Windows10およびMac OS10以降のPC
最新バージョンの Google Chrome、Firefox、Internet Explorerでの視聴をおすすめします。
・iPhone
iPhone 6s以降およびiOS 9.0以降の機種
YouTube : YouTubeアプリ
・Android
Androidスマートフォンで4K動画再生に対応した機種(主に2015年以降に国内主要キャリアから発売された機種)
*ただし、端末の処理性能やセンサー等の仕様により、正しく動作しない場合があります。
YouTube : YouTubeアプリ
ついに実現したサンシャイン噴水広場での凱旋パフォーマンスをお見逃しなく!!

深層学習による360度コンテンツの高品質化を行いました。

2018年1月

ヘッドマウントディスプレイや360度映像などバーチャルリアリティ(VR)に対する民間需要が高まっている。VRで利用されることが多い360度映像ではカメラ性能に由来する低画質の問題や、特殊撮影(ウェアラブルやドローン)による映像酔いの問題がある。本研究では、深層学習(ディープラーニング)を用いて、低品質なVRコンテンツを改善するための手法構築を目指す。学習においては、360度映像でデファクトスタンダードになっているエクイレクタンギュラーの形式の静止画や動画を学習データとして使用し、動画の高解像度化、スタビライゼーションによる安定化を実現、映像酔いのないVRコンテンツ生成を目標とする。長期的には当社が運営するパノラマ動画共有サイトPanoPlaza Movieへの機能統合を検討し、VRプラットフォームとしての差別化要素にしていきたい。

 課題・設計・仕様

 システム全体像

本システムはターミナルからコマンド入力により、指定された動画像映像の高解像度化と安定化処理を行うものである。処理システムは動画像を読み込み、フレーム順に安定化処理および高解像度処理を施して、動画像ファイルとしてストレージに出力する。

1、高解像度化処理

 問題と解決方針

深層学習による超解像技術は近年注目を集めており、従来の超解像手法よりも高い性能が出ることが実験などにより明らかになってきている。しかし、現状では通常の画像に対して適用されたのみであり、360度動画などに用いられるエクイレクタンギュラー形式への適用はなされていない。

深層学習を用いた超解像アルゴリズムはすでに複数提案されているが、そのうち特にVDSR[1]という手法を参考にし、畳み込みニューラルネットワークによるアルゴリズムを採用する。

ニューラルネットワークモデル

ニューラルネットワークモデルとして採用する図に畳み込みニューラルネットワークのモデル図を以下に示す。

入力と出力は共にRGBエクイレクタンギュラー形式の360度画像である。中間層は10個のユニットから構成され、中間層からの出力とモデルの入力とを加算したものを最終出力としている。各ユニットはサイズ3×3のフィルタ64チャンネル(最終層のみ3チャンネル)からなる畳み込み層と、非線形要素としてReLUを活性化関数に持つものである(最終層の活性化関数のみ線形)。入力から出力までの特徴量マップのサイズは入力画像と同じであり、あらゆるサイズの画像に対して適用できる構造となっている。

モデルの学習

学習用画像セットとして複数の360度画像を用意し、それらを教師画像とする。学習時の入力画像として、教師画像をそれぞれ1/2、1/3、1/4にリサイズしたのち、Bicubic法で元のサイズに拡大した低解像度の画像を用いる。これにより高解像度画像(教師画像)と低解像度画像のペアができる。これらのペア画像からそれぞれ41×41サイズのパッチ画像を切り出し、パッチを数万枚用意する。モデル内で扱う画像の輝度値は0〜1の浮動小数点数となるように入力画像および教師画像の値を調整する。

モデルの学習時には、64パッチ画像をひとつにまとめたミニバッチごとに、確率的勾配降下法を用いて各フィルタのパラメータを更新する。損失関数には平均自乗誤差を用いる。最適化アルゴリズムにはAdamを用い、80エポック程度の学習を行う。学習時間の短縮化のため、学習(最適化)はGPU(Nvidia Titan X)を用いて計算を高速化させて行う。学習フレームワークにはKerasを用い、バックエンドにはTheanoを利用する。

モデルの利用

モデルの学習が完了した後、学習後のパラメータを用いて超解像処理を行う。入力画像は一般的に0〜255の整数値で表現されるが、学習時と同様に0〜1の浮動小数点数に正規化する。出力画像についても同様に0〜1の範囲で出力されるため、0-255に戻す場合はスケールを正規化して整数に離散化を行う。学習時と同様にフレームワークにはKerasを用い、計算にGPUを用いて高速化を図る。動画像の超解像を行う場合は、1フレームごとに超解像を行うが、モデルのパラメータは最初にロードした状態のまま使いまわせるため、2フレーム以降は特に超解像を高速で行える。

2、スタビライゼーション

問題と解決方針

360度動画を撮影する際にドローンなどを用いると映像に激しいぶれが生じる。さらに、ぶれの方向や量が画面内でほぼ一様となる通常の動画とは違い、360度映像(エクイレクタンギュラー形式)では位置によってぶれる方向や量が異なるため、ぶれ補正は容易ではない。また従来の主なアルゴリズムでは、画像内の特徴点をフレーム間で対応付けることでぶれの向きや量を推定する方式が取られていたが、エクイレクタンギュラー形式のまま動画を処理しようとする場合は複雑な幾何計算やオプティカルフロー計算が必要になることが欠点であった。そこで本システムでは深層学習によりぶれ方向と量を画像情報から直接推定することにより、エクイレクタンギュラー形式でも煩雑な幾何的な計算をせずとも、ぶれ補正を行えるようにすることを目指す。

アルゴリズム

ぶれ補正はフレーム間の位置のずれを少なくさせる補正処理であるため、フレーム間でどの程度のずれが生じているか正確に計算することが重要となる。360度映像の場合のフレーム間のずれは3次元空間での回転として表現することができる。したがって、フレーム間のずれの計算は、フレーム間での回転方向(回転軸の3次元ベクトル)および回転量(回転軸まわりの回転角度)を求めることと等価である。回転軸と回転角度はクォータニオンで表されることから、2フレームの画像からフレーム間の回転を表すクォータニオンを出力するようなニューラルネットワークのモデルを構築する。
このモデルで推定されるクォータニオンの逆回転を対象フレームに掛けることにより、前フレームとのぶれを補正し、映像の安定化を行う。
(以下、ニューラルネットワークモデルの詳細は省略する)

3、システム全体の動作手順

以下のような流れで高品位化を行う。

  1. ユーザーがターミナルで高品位化したい動画像ファイルを指定し、システムを起動する
  2. 動画像はまずOpenFrameworksで作成したプログラムで読み込みを行う
  3. 読み込まれた動画像から1フレームずつ取り出し、2フレーム以降で以下の処理を行う
  4. ・前フレームと現フレームをリサイズし、クォータニオンを推定するモデルに入力する
    ・モデルの出力値からフレーム間の回転を示すクォータニオンの推定値を得る
    ・得られたクォータニオンを2フレーム目より掛け合わせ、現フレームまでに累積した回転を計算する
    ・累積された回転の逆回転を現フレームに掛けた画像を生成する
    ・この画像を超解像モデルの入力に流し、超解像した画像を出力する

  5. 全フレームにおいて安定化・高解像度化された一連の画像を、ffmpegを用いて動画像として連結・エンコードを行い、高品位な動画を出力する

評価

高解像度化処理結果

まず、画像サイズ3000×1500ピクセルの360度画像(元画像)を4分の1にリサイズしたのち、Bicubic法により3000×1500に拡大する(比較画像)。比較画像に対して超解像処理を行い超解像画像を得る。画像内から250×250ピクセルの画像をランダムに5箇所切り出し、それぞれ元画像に対する比較画像と超解像画像のPSNRを算出する。それらのPSNRの平均を算出し、比較画像(Bicubic法)に対して+2dB以上の向上が認められるかを確認する。

超解像画像とBicubicによる画像の平均PSNRを比較すると、2.39dB高い結果が得られた。また、360度画像全体でのPSNRにおいても超解像画像で31.81dB、Bicubicで29.73dBとなり2.08dB高い結果となった。

(高解像度化処理結果:左が元画像で、右が超解像画像)

スタビライゼーション処理結果

既存手法でのスタビライゼーションに比べて、本システムの性能がどの程度かを知るために定性的な比較を行う。ぶれ補正する360度動画として、360度画像に人工的にブレを生じさせた映像を用いた。本システムで対象の動画にスタビライゼーション処理を施すと、細かいブレは残るものの、大きなブレは除去されて、スタビライゼーションの効果が認められた。一方、比較対象の「Adobe After Effects CC 2018」に搭載されているスタビライゼーション機能に対象の動画を処理させようとすると、「分析の解決に失敗しました。」というエラー表示となり、スタビライゼーションを掛けることができなかった。その結果、本システムのスタビライゼーション機能は既存手法では対応できないぶれに対してもスタビライゼーションの効果が得られることが確認された。以下の動画で、上が処理前の入力動画、下がスタビライゼーション処理後の出力動画になる。完全ではないものの、大きな動画ブレに対して動画の安定化が施されている。

まとめと今後の展望

深層学習による360度コンテンツの高品質化のコンセプトの実証が確認された。一方で、本検証を実施している最中にもカメラのハードウェア側でのスタビライゼーションの強化や、Adobe以外のメーカーからのスタビライゼーションのソフト、またソニーコンピュータサイエンス研究所のリアルタイム360度映像のスタビライゼーション技術であるJackin Headなど、関連技術も進化してきている。今後は深層学習を使っている利点を考慮して、さらなる処理精度向上や新機能開発を検討している。

参考文献

[1] Kim, Jiwon, Jung Kwon Lee, and Kyoung Mu Lee. “Accurate image super-resolution using very deep convolutional networks.” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016.
[2] Dosovitskiy, Alexey, et al. “Flownet: Learning optical flow with convolutional networks.” Proceedings of the IEEE International Conference on Computer Vision. 2015.

ラズパイ + Insta360 Airを用いた低価格定点360カメラシステム

2017年10月

低価格定点360度カメラ

360度カメラを定点監視で使用されたいというニーズをよく聞くようになってきました。例えば農場や工場をモニタリングするとなるとカメラシステムを複数台欲しくなってきます。そうなるとカメラシステムのポータビリティや価格が重要な検討項目になります。そこでシステムをなるべく低価格かつ小さくするために、市販のシングルボードコンピュータであるRaspberry Pi(ラズパイ)と、同じ市販の360度カメラであるInsta360 Airを使用して、カメラシステムを作ってみました。

ハードウェアの価格構成

合計価格:25,000円
Raspberry Pi 3 Model B:5,000円
Insta360 Air: 20,000円

サーバーシステムとの連携

プロトタイプでは、以下のような動作をしています。
1,Insta360 Airの双眼魚眼動画をラズパイで取得
2,双眼魚眼動画をラズパイ内でリアルタイムスティッチング
3,ラズパイからRTMPでライブストリーミング送出
4,PanoPlaza Movieでライブ受信・表示
5,PanoPlaza Movieでデータのアーカイブ保存

本格運用に向けて

プロトタイプ機では、ラズパイでの性能の制約もあり1FPS程度で動画を送出しています。またラズパイもカメラもむき出しのため屋内での使用を想定していますが、適切なハウジングを作成することで、屋外でも使用可能になります。カメラ、ネットワーク、サーバ等のシステムとしての360度監視システムにご関心のある方は、是非お気軽にお問い合わせください。

なお、Raspberry Pi等の電子部品は、RSコンポーネンツにて購入できます。

ナカムラシズカVRの視聴方法について

2017年9月

PanoPlazaMovieでは徳間書店から発売される、ナカムラシズカVRのVR動画を配信します。
ナカムラシズカVRを視聴頂くには、「PanoPlazaMovie」のアプリをダウンロード頂き、ナカムラシズカVR同封のトレーディングカードに記載されている「チャプターシリアルナンバー」を入力頂くと再生できます。

ご視聴方法

アプリのダウンロード

お使いのiOS、Androidのアプリストアにて、「PanoPlazaMovie」アプリを検索、もしくは、下記からダウンロードしてください。
iPhoneで視聴される方はこちらからPanoPlazaMovieアプリをインストールしてください。

Android端末で視聴される方はこちらからPanoPlazaMovieアプリをインストールしてください。

再生方法

①アプリを起動して、「人」マークを選択して、ログインしてください。
※アカウントをお持ちでない方は「新規ユーザー登録はこちらから」を選択して、アカウントを作成後にログインしてください。

②視聴されたいチャプターコードのQRコードを撮影頂くか、「SECRET」(iOS)「MY SECRET VIDEO」(Android)を選択し、その中からご希望の動画を選択してください。

③動画選択後にシリアルナンバー(暗証番号)の入力が求められます。付属のカード裏面に記載されている「チャプターシリアルナンバー」を入力するとダウンロードが開始されます。

④ダウンロードが完了後、再生ボタンをタップすると再生開始します。

⑤付属の紙製HMDを用いたり、スマホ単体で動画をお楽しみください。

注意事項
・シリアルナンバーの利用回数は1回のみになります。一度ダウンロードした後に、使用したシリアルナンバーは使えなくなります。
・データ量が多いためにダウンロードに時間がかかったり、回線使用料が多くなります。WiFi環境下でのダウンロードをおすすめします。
また、それ以外の環境においても回線が安定している環境にてダウンロードしてください。
・ダウンロードが完了したあとは、作成頂いたアカウントにデータが紐付かれるため、例えばスマートフォンを買い替えた場合などでも、アプリをインストールして、同じアカウントでログインをして頂ければ、ダウンロードしたコンテンツをお楽しみいただけます。

動作環境

iPhone

OS:iOS8以上
機種:iPhone 6、6PLUS、6s、SE、7、7Plus

Android

OS:Android4.4~6のスマートフォン
・Androidはメーカーや機種により、様々なカスタマイズが施されているため機種によってはご利用頂けない場合があります。
・CPU:Snapdragon800相当以上(1CPUあたり2GHz以上のクアッドコア)
・メモリ2GB以上
・データ保存領域として作品毎にファイルサイズ以上の空き容量が必要です。
・次のメーカーは動画保証外となります。 Huawei/Asus/MOTOROLA/SHARP/富士通/京セラ
・アプリがインストール、起動できる場合であっても、特定OSバージョン・端末に依存する不具合への対応、保証はお受け出来かねますことをご了承ください。
・国内キャリア販売端末以外の端末、その他販売中止になっている端末に関する不具合への対応、保証はお受け出来かねますことをご了承ください。

良くあるご質問

アプリストアでPanoPlazaMovieのアプリが見つかりません

iOSの場合、対応機種(iPhone 6、6PLUS、6s、SE、7、7Plus)以外ではアプリの検索ができません。対応機種で検索してください。

シリアルコードを入力してもダウンロードができません

動画の容量が大きいため、ネットワーク環境が遅い場所だとダウンロードができません。ネットワーク環境の良いところでお試しください。

ダウンロードした動画を削除してしまいました。もう一度見る方法を教えてください。

登録頂いたアカウントでPanoPlazaMovieアプリにログインをしてください。
ログイン後に「SECRET」(iOS)「MY SECRET VIDEO」(Android)から再度動画をダウンロード頂くことが可能です。

パスワードを忘れてしまいました

ログイン画面の「パスワードを忘れた場合はこちら」からアカウント登録に使用したメールアドレスを入力して、パスワードの再登録を行ってください。
ログイン情報についてはお問合せ頂いても回答出来かねますことをご了承ください。

シリアルナンバーが無効と出てしまいます

シリアルナンバーの数字をご確認の上、再度入力してください。なお、一度入力したシリアルナンバーは無効となります。
また、シリアルナンバーについてはお問合せ頂いても回答出来かねますことをご了承ください。

ダウンロードが途中で止まってしまいます

スマホの空き容量よりも動画の容量が大きい可能性があります。動画の容量よりも空き容量を増やしてからダウンロードしてください。

ダウンロードが100%になっても再生されません

ダウンロードを途中で止め、もう一度ダウンロードして再生しようとすると、ダウンロードが100%になっても再生されないことがあります。
PanoPlazaMovieアプリを一度アンインストールして頂き、再インストールして、再度ダウンロードしてください。

画面が黒くなったままで音声のみ再生されます

特に、Androidはメーカーや機種により、様々なカスタマイズが施されているため機種によってはご利用頂けない場合があります。
アプリがインストール、起動できる場合であっても、特定OSバージョン・端末に依存する不具合への対応、保証はお受け出来かねますことをご了承ください。

動画の解像度を教えてください。

解像度は4096×2048の解像度です。

動画の容量を教えてください。

チャプター1:約730MB
チャプター2:約710MB
チャプター3:約860MB
チャプター4:約610MB
チャプター5:約710MB

ハウステンボス最先端エンターテイメントウィークにVR展示協力

2017年7月

カディンチェ株式会社は、長崎県にあるテーマパークのハウステンボスで開催中の最先端エンターテイメントウィークに協力し、以下の2つのVRシステムの展示協力をしております。展示期間は、7月22日(土)〜8月5日(土)になっておりますので、ハウステンボスご訪問時には是非ハウステンボス内の「VRの館」で体験してみて下さい。

1,zSpaceによる腕時計VRシミュレータ

腕時計を目の前に浮かびあがらせることのできる 不思議なメガネで複雑な腕時計の中をのぞいてみよう!

・コンテンツ提供:セイコーミュージアム
・ハードウェア提供:富士通株式会社(日本でのzSpaceの代理店)
・システム開発:カディンチェ株式会社

zview2

2,24時間全天球ライブカム「RICOH R Development Kit」

その場に居ながらまるでアンブレラストリートにいるかのような臨場感! 360°に広がるアンブレラストリートの生中継をのぞいてみよう!
※ハウステンボス閉園時間中のライブストリーミングは致しません。

・ハードウェア提供:株式会社リコー
・システム提供:カディンチェ株式会社(PanoPlaza Liveを使用)
・ライブストリーミングの閲覧方法はこちら

huistenbosch-image1

イベント詳細のリンク先:http://www.huistenbosch.co.jp/event/drone-light-show/

ハウステンボスのアンブレラストリートの映像をライブ配信します

2017年7月

2017年7月22日(土)から8月5日(土)まで、ハウステンボス内のアンブレラストリートの様子を株式会社リコー様と共同で360度ライブ配信を行います。
ぜひ、360度視点でのアンブレラストリートの様子を体験してみてください。

配信概要

概要

・配信内容 : ハウステンボスのアンブレラストリートの360度映像をライブ配信します

配信日時

・2017年7月22日(土) ~8月5日まで 毎日9:00~22:00 予定
※ライブ配信映像の為、音声及び映像が乱れる可能性がございます。ご了承ください。

視聴方法

PCで視聴される場合

PCで視聴される方はこちらをクリックしてください。

iPhoneで視聴される場合

iPhoneで視聴される方はこちらからPanoPlazaMovieアプリをインストールしてください。
既にアプリをインストールされている方はアプリを起動してLIVEからアクセスしてください。
※配信されていない場合には緑色の映像が映ります。
※上記のリンクからアプリがダウンロードできない場合には、下記からダウンロードしてください。
iOS PANOPLAZA MOVIEアプリ

Android端末で視聴される場合

Android端末で視聴される方はこちらからPanoPlazaMovieアプリをインストールしてください。
既にアプリをインストールされている方は、こちらからアクセスしてください。
※配信されていない場合には緑色の映像が映ります。
※上記のリンクからアプリがダウンロードできない場合には、下記からダウンロードしてください。
Android PANOPLAZA MOVIEアプリ

GearVRで視聴される場合

Oculusu Storeから、「PANOPLAZA MOVIE GearVR」をインストールしてください。
PANOPLAZA MOVIE GearVRのLiveからご覧いただけます。

推奨視聴環境

インターネット環境

10Mbps以上のインターネット環境を推奨。
モバイル端末で視聴する場合は十分なスピードの出るWi-Fi環境でご視聴ください。LTE等で視聴される場合にはパケット通信量にご注意ください。

対象デバイス環境

・PC(WindowsおよびMac)
Windows10およびMac OS10以降のPC
最新バージョンの Google Chrome、Firefox、Internet Explorerでの視聴をおすすめします。

・iPhone
iPhone 6s以降およびiOS 9.0以降の機種
PANOPLAZA MOVIE : PANOPLAZA MOVIEアプリ

・Android
Androidスマートフォンで4K動画再生に対応した機種(主に2015年以降に国内主要キャリアから発売された機種)
*ただし、端末の処理性能やセンサー等の仕様により、正しく動作しない場合があります。
PANOPLAZA MOVIE : PANOPLAZA MOVIEアプリ

・GearVR
Galaxy S6edge/S7edge/S8とGearVR

「日経コンピュータ 2017年6月8日号」に弊社クライアント事例がVR先行事例として掲載されました

2017年6月

ビジネスを推進するITの企画・開発・活用に欠かせない情報を分かりやすく伝える総合情報誌「日経コンピュータ 2017年6月8日号」の特集「VRで限界突破」に、VR活用を行なっている先行事例としてカディンチェが開発を担当した4社の事例が掲載されました。

掲載メディア:日経コンピュータ

掲載されいている内容および事例ページ

・大成建設様:臨場型遠隔操作システムの開発協力
https://www.panoplaza.com/case/development-vrapplication/t-irobo-remote-viewer/

・大和ハウス工業様: 沖縄のマンションライフ疑似体験コンテンツの開発
https://www.panoplaza.com/case/panorama-photography/daiwa-house-okinawa/

・東日本旅客鉄道様 :ソフトバンク様が納入する安全教育ソリューションの制作・開発協力
https://xs267448.xsrv.jp/kadinche/news/press/vrsolution20170131/

・セイコーホールディングス様:時計の内部構造を再現する3Dインタラクティブシステムの開発
https://xs267448.xsrv.jp/kadinche/news/press/seiko-zspace/

小室哲哉ライブパフォーマンスVR配信概要

2017年6月

2017年6月3日(土)にラジオ局J-WAVE(81.3FM)と筑波大学が共同で開催する「INNOVATION WORLD FESTA 2017 Supported by CHINTAI」(通称:イノフェス)の小室哲哉ライブステージにて、ライブの模様をステージ上に設置した4K360°VRカメラにて撮影し、来場されなかった方へ生配信、及び来場された方へも後日アーカイブ配信を実施します。

テクノロジーと音楽の祭典「INNOVATION WORLD FESTA 2017 Supported by CHINTAI」(通称:イノフェス)は、音楽アーティスト/イノべーター/最新テクノロジーが集結した唯一無二のイベントです。

ぜひ、臨場感溢れる視点でVRライブを体験してみてください。

配信概要

* ライブ生配信およびアーカイブ配信は終了いたしました。たくさんのご視聴ありがとうございました!

概要

・イベント名 : J-WAVE INNOVATION WORLD FESTA 2017 Supported by CHINTAI
・配信内容 : 小室哲哉ライブのライブパフォーマンスを2つの視点から配信

ライブ生配信

・ライブ配信日時 : 2017年6月3日(土) 17:30 〜 18:05 予定
・配信URL : YouTube上とPANOPLAZA MOVIE上にて配信します。
YouTube(アーティスト右前方)  ライブ生配信は終了いたしました。
YouTube(アーティスト後方)   ライブ生配信は終了いたしました。
PANOPLAZA MOVIE(アーティスト右前方)  ライブ生配信は終了いたしました。
PANOPLAZA MOVIE(アーティスト後方)  ライブ生配信は終了いたしました。

*イノフェス会場は通信環境を整備していない為、会場にお越しの方は後日行うアーカイブ配信でご視聴ください。

*ライブ終了後は、イベント翌日6/4(日)夜よりアーカイブ配信を予定しております。

アーカイブ配信

・アーカイブ配信日時 : 2017年6月4(日) 夜 〜 2017年6月7日(水) 正午
・アーカイブURL : YouTube上にて配信いたします。
YouTube(アーティスト右前方) アーカイブ配信は終了いたしました。
YouTube(アーティスト後方)  アーカイブ配信は終了いたしました。

*ライブ配信映像の為、音声及び映像が乱れる箇所がございます。ご了承ください。

J-WAVE INNOVATION WORLD FESTA 2017オフィシャルHP: http://www.j-wave.co.jp/iwf2017/

推奨視聴環境

インターネット環境

20Mbps以上のインターネット環境を推奨。
高品質な4K動画での配信となるため、モバイル端末で視聴する場合は十分なスピードの出るWi-Fi環境でご視聴ください。

対象デバイス環境

・PC(WindowsおよびMac)
Windows10およびMac OS10以降のPC
最新バージョンの Google Chrome、Firefox、Internet Explorerでの視聴をおすすめします。

・iPhone
iPhone 6s以降およびiOS 9.0以降の機種
YouTube : YouTubeアプリ
PANOPLAZA MOVIE : PANOPLAZA MOVIEアプリ

・Android
Androidスマートフォンで4K動画再生に対応した機種(主に2015年以降に国内主要キャリアから発売された機種)
*ただし、端末の処理性能やセンサー等の仕様により、正しく動作しない場合があります。
YouTube : YouTubeアプリ
PANOPLAZA MOVIE : 最新バージョンでのGoogle ChromeブラウザおよびPANOPLAZA MOVIEアプリ

・GearVR
ライブ配信映像はGearVRアプリの「PANOPLAZA MOVIE GearVR」で閲覧頂く事が可能です。

Kadinche and DG Lab, Delivery of live performance at 4K360° VR

2017年6月

Providing visual experiences of a new feeling with full of presence

Performance of Mr. Tetsuya Komuro’s can be watched in 360 ° field of view from the camera which lies on the stage.

Kadinche Company Ltd. (Head office: Tokyo Shinagawa-ku, Representative Director and President: Soko Aoki, hereinafter: Kadinche) and Digital Garage Company Ltd. (Tokyo Stock Exchange 4819, Headquartered: Shibuya-ku, Tokyo, President and Representative Director and CEO: Hayashi Iku, hereinafter: DG) (Tokyo Stock Exchange 2371, Head Office: Shibuya-ku, Tokyo, Representative Director: Akinosuke Hata), Credit Saison (Tokyo Stock Exchange 8253, Head office: Toshima-ku), Tokyo DG Lab * 1, an open-platform research and development organization operated by Mr. Hayashino Hiroshi) which will be held jointly with J-WAVE (81.3 FM) of the radio station on June 3, 2017 with the University of Tsukuba, we will also distribute Tetsuya Komuro’s live from the stage at “INNOVATION WORLD FESTA 2017 Supported by CHINTAI” (“Innofes”) at “4K360° VR” (360° movie with resolution of about 4000 × 2000 pixels).

In this Innofes, Kadinche and DG Lab deliver live performance images of Mr. Tetsuya Komuro at “4K360° VR” so that viewers at remote locations could see as if they are actually in the audience seats and they can feel the shape of a new live distribution.

We will also set up a camera on stage of the hall so that we can also watch the stage performance of Mr. Tetsuya Komuro more closely. The state of such live performance is scheduled to be delivered on YouTube and “PANO PLAZA MOVIE” operated by Kadinche * 2. Similarly, we plan to archive live images the next day after the event is held. For this reason, live visitors can enjoy the performance of Mr. Tetsuya Komuro again from another viewpoint with “4K360° VR”

With this “4K 360° VR” raw delivery triggered, Kadinche and DG Lab will begin verifying commercialization of VR live video distribution business from various angles including VR raw delivery technology and user experience evaluation.

*1 DG Lab is a research and development organization aiming to discover technical seeds that will become the pillar of new business of participating companies through open innovation, which was established in July 2016 and “Block Chain”, “Artificial Intelligence”, ” VR / AR “,” Security ” and “Biotechnology “as their priority areas.

*2 Delivery details will be announced on the same day in the official website of Innofes, J-WAVE official, Twitter account etc.

Event overview

The festival of technology and music “INNOVATION WORLD FESTA 2017 Supported by CHINTAI” (also known as Innofes) is the first event held in 2016 as a unique event where music artists / innovators / latest technologies are gathered.

This year famous powerful musician “Mr. Tetsuya Komuro” appeared. We will also deliver his live performance at “4K360° VR”. Official website: https: //www.j-wave.co.jp/iwf2017/

カディンチェとDG Lab、ライブパフォーマンスを「4K360°VR」で生配信

2017年6月

臨場感あふれる新感覚の映像体験を提供

~小室哲哉氏のパフォーマンスをステージ上のカメラから360°視野で視聴可能~

報道関係者各位 プレスリリース

2017年6月1日
カディンチェ株式会社

 

カディンチェ株式会社(本社:東京都品川区、代表取締役社長:青木 崇行、以下:カディンチェ)と株式会社デジタルガレージ(東証一部 4819、本社:東京都渋谷区、代表取締役社長 兼 社長執行役員グループCEO:林 郁、以下:DG)、株式会社カカクコム(東証一部2371、本社:東京都渋谷区、代表取締役社長:畑 彰之介)、株式会社クレディセゾン(東証一部8253、本社:東京都豊島区、代表取締役社長:林野 宏)が運営するオープンプラットフォーム型の研究開発組織「DG Lab」*1は、2017年6月3日にラジオ局J-WAVE(81.3FM)が筑波大学と共同で開催する「INNOVATION WORLD FESTA 2017 Supported by CHINTAI」(以下、イノフェス)において、小室哲哉氏のライブステージを「4K360°VR」(解像度が4000X2000ピクセル程度の360°動画)で配信します。

今回のイノフェスでカディンチェとDG Labは、小室哲哉氏のライブパフォーマンス映像を「4K360°VR」で生配信することにより、遠隔地にいる視聴者が、まるで実際に観客席にいるかのような臨場感を感じられる、新しいライブ配信の形を実現します。また、会場のステージ上にもカメラを設置するため、小室哲哉氏のステージパフォーマンスを間近で視聴することも可能です。こうしたライブパフォーマンスの様子は、YouTubeと、カディンチェが運営する「PANO PLAZA MOVIE」上で配信する予定です*2。また、イベント開催翌日にはライブ映像のアーカイブ配信も予定しています。このためライブ来場者も小室哲哉氏のパフォーマンスを別の視点から「4K360°VR」で再度楽しめます。

今回の「4K360°VR」生配信を契機に、カディンチェとDG LabはVR生配信の技術、ユーザー体験の評価など様々な角度から、VRライブ映像配信ビジネスの事業化の検証を開始します。

*1 DG Labは、オープンイノベーションにより、参画企業の新たな事業の柱となる技術シーズを発掘することを目指した研究開発組織で、2016年7月に設立し「ブロックチェーン」「人工知能」「VR/AR」「セキュリティ」「バイオテクノロジー」の5つを重点分野としています。

*2 配信詳細はイノフェス公式ホームページ、J-WAVE公式ツイッターアカウントなどで当日案内予定

イベント概要

テクノロジーと音楽の祭典「INNOVATION WORLD FESTA 2017 Supported by CHINTAI」(通称:イノフェス)は、音楽アーティスト/イノべーター/最新テクノロジーが集結した唯一無二のイベントとして、2016年に第一回を開催。よりパワーアップした今年は、ミュージシャン「小室哲哉」が出演。さらにそのライブの様子を「4K360°VR」配信します。

公式ホームページ:https://www.j-wave.co.jp/iwf2017/