前向きの考え方 (ほぼ)リアルなSFデバイス

(ほぼ)リアルなSFデバイス

目次:

ビデオ: 吹王火剣フクオカリバー7月5日アクション3か所のみ真横カメラ (九月 2024)

ビデオ: 吹王火剣フクオカリバー7月5日アクション3か所のみ真横カメラ (九月 2024)
Anonim

多くの人と同じように、私は空想科学小説が大好きで、CESのようなショーに行くことがよくあります。 しかし、今年のCESには優れたテクノロジーがいくつかありましたが、本や映画で想像しているテクノロジーからはまだ遠いことを思い出させてくれました。 まだ自動運転車はなく、ロボットやホロデッキはあまり使いません。

それでも、これらの技術が現実の世界で実際に利用可能になるまでには長い道のりがあるとしても、私は多くの進歩を見ました。 繰り返しになりますが、Skynetがまだ稼働していないこともおそらく良いことです。

CES車は自動運転だけではありません

毎年、CESは自動車ショーのようになり、今年は北ホールの大部分が自動車メーカーとそのサプライヤーでいっぱいでした。

私は多くの人が自律走行車について話しているのを見、そして見ました。 Nvidiaは、「世界で最もパワフルなSoC」であるXavierを中心に、プレショーの基調講演の大部分をそのような車両用の新しいシステムについて議論しました。 Xavierには、350 mm2ダイに90億個のトランジスタがあり、カスタム8コアCPU、新しい512コアVolta GPU、新しい深層学習アクセラレーター、新しいコンピュータービジョンアクセラレーター、および新しい8K HDRビデオプロセッサーが搭載されています。 同社は、毎秒30兆回のオペレーションを提供しながら、消費電力はわずか30ワットだと言います。

これは、2つのXavier SoC(チップ上のシステム)と2つの次世代Nvidia GPUで構築された同社のPegasus駆動システムの中心を形成します。 Nvidiaは、顧客がペガサスの最初のサンプルを入手すると言いました。ペガサスは、2018年半ばに1秒間に320兆回の処理性能を発揮できます。 完全に自動化された車両(レベル5)を有効にすることを目的としています。

一方、IntelはMobileyeの買収を推進し、すでに生産されている多くの車でチップがどのように使用されているかについて話し、この数が増えていることに注目しました。 同社は、スマートシティで使用するための高解像度マップを構築するための新しいパートナーシップと、完全自動運転車での安全性と先進運転者支援システム(ADAS)に焦点を当てています。

同様に、ARMは、ADASからスマートライトまでのすべてでプロセッサを使用するさまざまな自動車業界ベンダーについてかなりの時間を費やしました。

実際、CESでの議論の多くは、自動車メーカーやチップメーカーからLIDARからディスプレイ、ソフトウェアまで、あらゆる種類のコンポーネントのメーカーに至るまで、自動運転車に関するものでしたが、ショーでは他の自動車技術に焦点を当てた多くの議論もありました。

燃料電池車のデモがいくつかあり、かなりきれいなコンセプト車さえありました。 私はこれらにあまり焦点を合わせていませんでしたが、非常に興味深いものでした。

私が見た最も奇妙な車の技術は、あなたが足が反応するより速く休憩を押したいときを知っているという考えに基づいて、考えて車を制御する日産の実験でした。 これは興味深い理論ですが、どれほど実用的かはわかりません。

探しているドロイドではなく、どこでもロボット

ロボットについてはよく耳にしますが、特定の機能(ロボット掃除機など)を実行する一部の「ロボット」デバイスを除いて、現実世界には期待されるほど多くのロボットはありません。誇大広告。

CESには、あらゆる種類のロボットが展示されていました。車輪に乗ってAmazon Echoのように振る舞う家庭用ロボットから、子供とやり取りするように設計されたおもちゃ、チェスなどの特別なマシンまでまたはピンポンでさえ、後者は大量に売るよりも群衆を引き付けるように設計されているようです。

LGは基調講演で、CLOiホームロボット(実際には機能しませんでしたが、デモです)のほか、食べ物や飲み物を提供するもの、荷物を運ぶポーターとして機能するものなど、新しい商用バージョンを紹介しました。もう1つは、統合されたバーコードリーダーを備えたショッピングカートとして機能します。 これらは興味深いアイデアですが、主流になるには長い道のりのようです。

私にとって、これらの中で最も見栄えが良かったのは、ソニーのAiboロボット犬の新しいバージョンでした。この犬は現在、新しいトリックが可能であり、顔認識を使用して異なる人に異なる応答をすることができます。 Aiboはまた、ボールで遊ぶ、横たわる、タッチに反応するなど、一見非常に犬のような行動をすることができます。 現在入手可能な日本語版は安価ではありません。 米国版はまだ発表されていません。 とても楽しいようです。

しかし、私の一般的な印象は、これらのどれも人々が本や映画で想像するロボットにまったく近いというものではありませんでした。 それらはすべて非常に限られており、多くの場合、会話の断片にすぎません。 しかし、物事は進歩しているようです。

持ち運びできるリアルタイム翻訳

おそらく、消費者が使用できる状態に最も近いSFテクノロジーは、ユニバーサルトランスレーターです。 「普遍的な」部分の準備がまだできていなくても、特に2つの言語間での翻訳テクノロジの多くの改善に非常に感銘を受けました。

ある特定の言語から別の言語に(そして再び元に)翻訳できるものが必要な場合、そのような機能を提供する多くの商用デバイスがあります。 同じことをしようとする電話アプリ(Google TranslateやPixel Budsなど)がいくつかありますが、タスクに合わせたマイク、ソフトウェア、スピーカーで仕事をすることを主張するいくつかの小さなデバイスのデモに感銘を受けました、どのスマートフォンでも、またはスマートフォンなしでも動作します。

中国のAI会社iFlytekには、中国語と英語を翻訳するための2つの異なるバージョンがありました。1つはオフラインで動作し、約150ドルで販売され、もう1つはやや良い仕事をし、セルネットワーク経由でクラウドに接続されます。 このデバイスは約350ドルで販売されています。 同社はまた、中国語から他の言語への変換にも取り組んでいます。 私は北京語を話せませんが、かなり印象的に見えました。

日本企業のソースネクストは、ハンドヘルドの双方向音声翻訳機であるPocketalkのデモを行い、63の異なる言語で作業できると述べています。 私が見たデモには日本語と英語が含まれていて、日本語が話せないのでとてもよく見えましたが、確信が持てませんでした。 これは5月にリリースされる予定です。

しかし、設計の観点から見ると、私にとって最も興味深いと思われたデバイスは、同社のPapago翻訳技術を使用するNaverのMars翻訳者と、NaverとアジアのメッセージングサービスLineによって開発されたClovaと呼ばれるアシスタントでした。 この設計では、一対のイヤホンを持ち、片方を耳に入れ、もう片方を他の言語を話している人に渡します。 韓国語から英語を使用したデモンストレーションも印象的でした(しかし、私は本当にわかりません)。 同社はまた、中国語とスペイン語をサポートすると述べている。

私が言ったように、私は実証された言語のどれも話さないので、製品がどれほど良いかを保証することはできません。 しかし、これらは非常に急速に正しい方向に動いているようです。

VRは改善するが、ホロデッキは遠く離れている

VRヘッドセットは今や当たり前のことですが、私が知っているほとんどの人は、VRヘッドセットが短期間しか楽しめるものではないと思っています。 一方、Google Glassなどの拡張現実ヘッドセットは、いくつかの高度に専門化されたアプリケーションを除き、まだ普及していません。 私にとって、それはテクノロジーがプライムタイムに十分な準備ができていないように見えるからです。VRヘッドセットは多くの場合重くて不格好です。デバイスをつなぐ必要があるか、十分に強力ではなく、ディスプレイのフィールドが限られていますビューの。 さらに、一般に解像度は十分に低いため、ピクセルを見ることができ、ディスプレイに「スクリーンドア効果」が与えられます。

今年のCESでは、これが改善し始めている兆候が見られました。

RoyaleのMoon 3D Mobile Theaterは、ヘッドセットでデュアル1080p AMOLEDディスプレイと耳を覆うノイズキャンセリングヘッドフォンを使用して、映画を観るより没入感のある体験を提供します。

ThirdEyeのX1は、拡張現実向けの2つの720pシースルーディスプレイを備えており、主にヘルスケアおよび教育市場を対象としています。

中国の新しいプレーヤーであるロキッドは、通常のサングラスほど大きくないメガネで、消費者製品のように見えるARメガネを披露しました。 Rokidのデバイスには、顔検出および音声認識用の正面カメラが含まれています。 これは単なるプロトタイプモデルであり、いつ市場に出るかは不明です。

おそらく最も興味深いのはVuzix Bladeでした。 (この投稿の上部の写真を参照してください。)Vuzixはしばらくの間、ARメガネとVRメガネを企業市場に出荷してきましたが、Bladeはより軽く、ARメガネのほとんどのビジョンに近いように見えます。 これらはサングラスのように見えますが、フレームの側面に小さなカラーディスプレイがあり、バッテリー、8メガピクセルのカメラが含まれ、Amazon Alexaを音声アシスタントとして使用します。

いくつかの点で、これはGoogle Glassの概念の更新版であり、消費者がそれを使用しているのをほぼ目にすることができる点です。 (Google GlassはまだVuzix、Epsonなどの製品と競合する企業市場向けに存在します。)私が試したメガネはかなり良いと感じました。比較的軽く、見たいものがすべて揃っていませんでしたがこれらのタイプのメガネは、ディスプレイはまだ私が望むほど良いものではありませんが、Vuzixはすぐに開発者キットを約束し、消費者向けのバージョンが登場するなど、実際の製品に近い状態です。 超カッコイイ。

これらの新機能の背後には、大幅に改善されたディスプレイがあり、新しいLCDとマイクロOLED(有機発光ダイオード)、およびライトフィールドディスプレイの作業が進んでいます。

Micro OLEDの分野では、対角線サイズが0.49インチで明るさが1000 niを超えるKopinのLightning 720p OLEDマイクロディスプレイを使用したヘッドセットがいくつかありました。 今日の最も興味深いヘッドセットのいくつかはそれを使用しているようです。

特に興味深いと思うのは、マイクロディスプレイを使用し、Flirのサーマルイメージングシステムを統合して、燃えている建物のホットスポットに警告する消防士のマスクとして機能するヘッドセットを作成することです。

さらに先を見ると、Kopinは、今年後半に発売予定の2048 x 2048ピクセルの0.99インチディスプレイ(各辺18 mm)であるLightning 2K AMOLEDを披露しました。 同社は長年にわたってヘッドセット用のディスプレイを作成してきましたが、現在、ディスプレイメーカーのBOEとの合弁事業の一環として、より優れた「アシストリアリティ」を実現するためにマイクロOLEDを製造しています。

将来的には、特にARアプリケーションに非常に興味がありますが、今年はまだ特定のニーズを持つ垂直市場に最適なニッチアプリケーションであると思います。

それでも、SF映画への別のうなずきで、ホログラムは多くの進歩を遂げているようです。 特に、LEDを使用して空中に浮いているように見える3Dホログラムを投影する英国の会社、Kino-moのHypervsnに感銘を受けました。 このテクノロジーは、目を引くディスプレイを作成するために、主にマーケティングで使用されます。 それは確かに私を捕まえた。

(ほぼ)リアルなSFデバイス