VRヘッドセットQuest上でMetaのARグラスを再現するプロジェクト。ハンドトラッキングやマイクロジェスチャー認識など、Metaの技術を応用し、快適なUI操作を目指す。スタンドアロンQuestで動作し、将来的なOSレベルでの実装も視野に。
-
1:スレ主
QuestでMetaのARグラス再現してみたぞ [URL○]
-
2:以下、名無しがお送りします
これマジですごくね?
-
10:スレ主
>>2 ありがと :D
-
16:以下、名無しがお送りします
>>2 MetaのAR開発費1000億ドル vs スレ主
-
22:以下、名無しがお送りします
>>16 まあ、ハンドトラッキングはMeta製だろ(たぶん) https://www.meta.com でデモ見れるぞ 親指で移動するやつ
-
23:以下、名無しがお送りします
>>16 Metaのニューラルバンドは、手を失った人にも使えるらしいぞ EMGデバイスを改造して、脳信号をデータに変換するんだと
-
24:以下、名無しがお送りします
これマジで欲しいわ 空中でピンチ操作するの疲れるんだよ ソファで寝ながらハンドトラッキングできたら最高
-
27:名無しのA
>>24 だからMetaのリストバンドが優秀なんだと カメラ要らないし、手袋しててもマイクロジェスチャーできる
-
28:以下、名無しがお送りします
>>27 (意味深)
-
34:名無しのA
>>28 https://giphy.com
-
36:以下、名無しがお送りします
なんでマイクロジェスチャーがUIに組み込まれないんだ?
-
43:以下、名無しがお送りします
>>36 ハンドトラッキングの精度が足りないからじゃね? アイトラッキングがあれば解決するかも 来年あたりに期待 https://www.uploadvr.com
-
49:以下、名無しがお送りします
>>43 Puffinヘッドセットはヤバそう Quest 3は重くて顔面がコンピューターみたいで毎日使えない 110gのOLEDなら、飛行機とか電車で使えるし、仕事にも使える マジ理想
-
51:以下、名無しがお送りします
>>43 Metaの「Interaction SDK Samples」ってアプリに、マイクロジェスチャーで移動するデモがあるぞ マジで完成度高くてビビった OSに実装できるレベルだと思う
-
58:以下、名無しがお送りします
>>51 それ言いたかったけど、Unity限定だった気がする… Unreal版も出してくれ
-
59:以下、名無しがお送りします
シュシュ草
-
60:以下、名無しがお送りします
TheFatRatの名前が出てきて草 マジですごすぎ
-
61:以下、名無しがお送りします
すごい
-
64:以下、名無しがお送りします
片目モードにできませんか? ホログラムを1.2m先に配置するとか
-
70:スレ主
>>64 片目レンダリングはテストできるけど、VRヘッドセットだと快適じゃないかも
-
74:以下、名無しがお送りします
マジすげえ Metaのデモで見たのに似たようなの、どっかで見た気がする https://github.com
-
77:以下、名無しがお送りします
マジで開発早すぎ Metaの開発部全員クビにして、あんた一人雇えばスムーズになるんじゃね?
-
87:以下、名無しがお送りします
これはすごい
-
88:以下、名無しがお送りします
ジェスチャーが動いてるのマジですごい PCで動いてるの? それともQuest本体?
-
93:スレ主
>>88 全部スタンドアロンQuestで動いてるぞ マイクロジェスチャーは機械学習で、ただのハンドトラッキングの骨格比較じゃない
-
99:以下、名無しがお送りします
Metaのエンジニア「QValemはQuest 3で洞窟で作ったぞ!」ってシュガーマウンテンに怒鳴られてそう
-
102:以下、名無しがお送りします
マジですごい アップデート楽しみにしてます :3
-
110:以下、名無しがお送りします
マジですごい リストバンドがシュシュみたいに見える 導入がファッショナブルでシームレスになれば、普及しやすくなるね