ニュース
二眼カメラ付きAIヘッドセット「Project Motoko」で夢広がる。身に付けるAIが当たり前になる時代へ
![]() |
Razer初のAI開発向けワークステーション「Razer Forge AI Dev Workstation」も,そうしたAI関連製品のひとつ。
会場では,ミニタワーサイズのワークステーションと,それを3台まとめてラックマウントに格納した機材,さらにノートPC「Razer Blade」の計5台を10GbpsのLANで接続して,分散コンピューティングによるAI処理を披露していた。
![]() |
ほかにも,分散コンピューティングに対応した,オープンソースのローカル生成系AI開発フレームワーク「Razer AI Kit」を独自に開発,提供するという。
Razerは,これらの事業に向けて優秀な人材を広く雇用したそうだ。RazerのAI事業参入は,どうやら本気らしい。
本稿では,それらの中でも注目を集めていたAIヘッドセット「Project Motoko」(プロジェクト モトコ)について見ていこう。
![]() |
AIヘッドセット「Project Motoko」とは?
RazerのAI事業は,AI開発者向けソリューションだけでなく,ゲーマーや一般消費者向けのAI搭載型ガジェットも手がけている。その代表格が「ウェアラブルAI」,つまり身に付けるAI製品だ。
そのひとつが,2026年内の製品化を目指して開発中のProject Motokoである。プロジェクト名は仮称だが,「攻殻機動隊」の主人公,草薙素子を意識したものとのことだ。
![]() |
![]() |
しかしRazerでは,「これらの製品は,はたして最適解なのか」と,眼鏡型デバイス以外を検討するところから開発が始まったそうだ。
眼鏡型デバイスでは,本体サイズと重量を小さく軽くすることが命題となりがちだ。現在の技術を用いて,現実的な価格で販売することを考えて機能や性能を設計すると,どうしても開発難度が上がってしまう。
高性能なプロセッサを搭載すれば,冷却とバッテリーでボディが大きく重くなり,見た目もゴツくなりがちだ。
眼鏡型デバイスはここが問題だと,Razerは判断したようだ。そこで同社は,開発経験が豊富なヘッドセットをウェアラブルAIガジェットにしたら……と方向性を固めたという。
その結果,オーバーヘッドのヘッドフォン型デザインを採用することで,眼鏡型よりも大容量のバッテリーを搭載可能となった。そして,高性能なQualcomm製SnapdragonシリーズのSoC(※詳細未公開)を搭載しながら,連続30時間以上の動作を実現したそうだ。
![]() |
Razerの担当者によると,ディスプレイをしていないので,AIとの基本的なコミュニケーションは,音声対話で行うとのこと。
画面がないことの不便さはあるが,Razer担当者は,「眼鏡型とは違ってユーザーが何を見ているのか,盗み見されないメリットがある」と,むしろ利点であるとアピールしていた。
外観は最終仕様ではないそうだが,仕様として確定しているのは,左右のエンクロージャの前側に,1基ずつ小型カメラを搭載することだという。
![]() |
耳の穴の高さは,瞳の高さに近い。Razerによると,エンクロージャ部分に搭載した二眼カメラは,眼鏡のテンプルやレンズ上端周辺にカメラを搭載する眼鏡型デバイスよりも,自然な視点位置の一人称映像を撮影できるのだという。
試作機の二眼カメラは,約1200万画素クラス(4000×3000ピクセル解像度クラス)だそうで,SoCによる電子式手ぶれ補正を行うため,3K/60fps相当の映像を撮影できる。
二眼カメラの主な使用目的は,AIがユーザーのいる場所や状況を理解するためだ。
一方で,いわゆるビデオログ(行動の映像記録)にも使える。Razer担当者によれば,3D映像の録画も行えるとのこと。「このデバイスで撮影した映像は,目線の3D映像に極めて近いので,ロボットAI用の学習データとして有用だ」と,Razer担当者は述べていた。
3D映像は録画だけでなく,SoCによる空間認識やオブジェクト認識といった,コンピュータビジョン処理にも活用できるはずだ。
![]() |
![]() |
Project Motokoは,なにができるのか
Project Motokoの公式動画を見ると,おおまかに何ができるのかが分かる。
動画にあるのは,日常生活での活用シーンだ。
運動中の時間やバーベルの上げ下げを計測したり,思い出せない来訪者の顔から,その人のプロフィールを教えてくれたりといったことができるようだ。
映像を見た感じでは,基本的に,ほぼ常時,二眼カメラは動作しているようで,AIが音声で何かを答えていた。バーベルの上げ下げは,カメラで捉えた映像をAIが認識して数えているようだ。
人の顔も,カメラが顔を認識して,その人物のプロフィールをAIが読み上げていた。
Razer担当者によると,Project Motokoではヘッドセット上でのローカル動作だけでなく,クラウド側と連携を取るAIシステムが稼働しているそうで,AIがカバーする範囲はかなり広いという。
LLMベースのAIとしては,OpenAIの「ChatGPT」,Googleの「Gemini」,xAIの「Grok」などを,ユーザーが選んで利用できるとのこと。
![]() |
そのひとつは,食材をAIに見せて,そこから作れる料理を探して,作り方の手順までレクチャーしてくれるデモだ。
筆者が日本の記者ということで,AIに対して,「料理の説明は日本語で行うよう」に指示している。
![]() |
![]() |
今回の実演では,Project Motokoの音声による応答がユーザー以外にも聞こえるように,スピーカーから出力させていた。これはデモ用の機材だから可能なだけで,製品版では,音声出力はヘッドセットだけで,ユーザー以外に音を聞かせるような仕組みはないそうだ
翻訳機能もあり,目の前の相手がしゃべった外国語が,ヘッドセットからユーザーの希望する言語で聞こえてくる。逆に,ユーザーが母国語でしゃべった内容を,Project Motokoが翻訳して外国語の音声で外部に出力することはないそうだ。
また,Project Motokoは,ユーザーが見ているディスプレイの表示を認識できる。画面に表示した文書の要約を読み上げさせたり,プレイしているゲームを理解させて,ゲームプレイのアドバイス(※いわゆるリアルタイムコーチング)などもしてくれるそうだ。
リアルタイムコーチングについては,Razerが取り組んでいるもうひとつのAIアシスタント「Project AVA」の機能と被るものなので,おそらく同一の機能だと思われる。
![]() |
![]() |
Project Motokoにしかできないことを武器に
ヘッドフォンスタイルのウェアラブルAIはありか,なしか?
主流になれるかどうかは未知数だが,筆者は,選択肢のひとつとして「これもありかも?」という程度には,賛同できる印象を持った。
最近は,結構大きめなヘッドフォンを装着して,電車やバスに乗っている人を男女問わず見かける。音楽を聞く用途を主軸にするなら,Project MotokoスタイルのウェアラブルAIを身に付けることも,悪目立ちはしないだろう。
ちなみに,ウェアラブルAIを眼鏡型デバイス以外でという方向性を選んだ企業は,Razerだけでない。それも追い風になりそうだ。
たまたまだが,2025年に筆者は,Razerとほぼ同じ理由で,眼鏡型以外を選んでウェアラブルAIデバイスを開発した日本企業のFairy Devicesを,とあるイベントで取材した。
Fairy Devicesが開発しているのは,肩に乗せるネックスピーカー的なデザインの二眼カメラ付きウェアラブルAIデバイス「THINKLET LC-01」だ。
![]() |
![]() |
筆者が,ぜひともProject Motokoに期待したいのは,二眼カメラを使った危険の予測と警告機能だ。Project Motokoをユーザーの第2の目として機能させることで,前方の障害物を察知して,事前に警告してくれたらありがたいと思う。
Project Motokoの左右レンズ間の距離は,人間の瞳孔間距離(Interpupillary Distance,55〜70mm程度)よりも長いので,人間の眼よりも2倍長い40m以上先の立体情報を把握できる。
つまり,二眼カメラ搭載のProject Motokoなら,危険の予測と警告機能の実現におあつらえ向きなのだ。
今後も,非眼鏡型のウェアラブルAIガジェットはいろいろと出て来るかもしれない。二眼カメラ搭載のヘッドフォン型ウェアラブルAIデバイスだからこそ実現できる便利な機能は,他にもいろいろありそうである。
- 関連タイトル:
Razer
- この記事のURL:
Copyright (C) 2023 Razer Inc. All rights reserved



































