最近の I/O カンファレンスで、Google はテクノロジーの限界を押し広げたいと考えている興味深いイノベーションの数々を明らかにしました。同社の先進技術およびプロジェクト (ATAP) 部門は、新しい「ジェームズ ボンド」デバイスを私たちに提供してくれました。その中でも特に Soli プロジェクトに感銘を受けました。プロジェクトの一部としてデバイスが作成されますが、それはスマート デバイスではありません。これはあなたです。ユーザーのジェスチャーを認識して適用する特別なセンサーです。
ATAP 彼は自分がそうだと知っている 人間の手 デバイスと対話するための最良の方法。しかし、すべてがデバイスであるわけではありません。 Google内で Soli プロジェクトの したがって、前述の部門の後援の下に設立されています 小さなセンサーレーダーの助けを借りて、分刻みで ジェスチャーを認識する ユーザーの指など。 ATAP はそれを使って私たちの手や指を 1 つに変えたいと考えています インターフェース、今後も必要になります。
に基づいて モーションスペクトログラム 私たちのジェスチャーを解釈し、コミュニケーションを翻訳するセンサーの前で ウェアラブルデバイス。したがって、親指を人差し指に当ててスライドさせると、プログラムはこれをリストのスクロールまたはモバイル デバイスの音量調整と認識し、指先でタップすると、それは次のことと同じ意味になります。 ボタンをクリックしてください.
続きを読む: Lenovo Cast – ホッケーのパックの形とサイズのコンテンツを共有するためのデバイス
センサー 私たちの距離を認識する したがって、同じジェスチャーを異なる方法で解釈することができます。レーダーは高解像度であり、特定の周波数で動作します。 80GHz 1 秒あたり 10,000 回の読み取り値をサンプリングし、動きをリアルタイムでパルスに変換します。
現時点では、手を「インターフェース」に変える技術はまだ非常に大きなものですが、Google はそれを押し込めると信じています。 チップサイズ、スマートウォッチ、スマート服、その他の電子デバイスの中に隠すことができます。すでに、すべてが現状よりも良く聞こえます 音声コマンド 今までにあった。