目次:
ビデオ: my history up until being nys emt 1998,(preceded by my run through of emergency room today) (十一月 2024)
私にとって、先週のGoogle I / Oカンファレンスの最大のテーマは「AIの民主化」、つまり、さまざまなGoogleサービスでの使用を通じてエンドユーザーと新しいツール、プログラムを通じて開発者の両方にAIをアクセス可能にすることでした、さらにGoogleのTensorFlow AIフレームワークに基づいて設計されたハードウェアも含まれます。
Google CEOのSundar Pichaiは基調講演で会議を開始し、昨年述べたように、会社がモバイルファーストからAIファーストのアプローチに移行していることを再度強調しました。
彼は、Googleは「すべての製品を再考し、機械学習とAIを適用してユーザーの問題に対処している」と述べた。 彼は、機械学習アルゴリズムが検索のさまざまな結果のランク付けにすでに影響を与えており、ストリートビューが標識を自動的に認識するようになったと述べました。 Google Homeが複数のユーザーをサポートする方法や、Gmailが電子メールへの応答を自動的に提案する「スマート返信」機能をどのように展開するかなど、AIにより他のサービスがよりスマートになっています。
そのために、彼は、消費者と開発者の両方のために、AI製品の多くの発表を行いました。
レンズ、アシスタント、写真はAI機能を使用
エンドユーザーにとって、これらの新しい取り組みで最も目立つのは、GoogleアシスタントとGoogleフォトの両方で、あなたが見ているものを理解し、行動を起こすことができる視覚ベースのコンピューティング機能のセットであるGoogle Lensです。
たとえば、彼は花の写真を撮る方法と、Google Lensで花を特定する方法を示しました。 より普遍的には、Wi-Fiのユーザー名とパスワードの写真を撮影し、接続してそれを行うことを自動的に理解することができます。 他の例としては、レストランの外の写真を撮り、ソフトウェアにその内容を理解させてから、ユーザーのレビューとメニューを表示することが含まれます。 これは完全に新しいものではありませんが、非常に便利になると想像できます。これは、数年のうちにほぼ全員が丸ごと使用することになるでしょう。 Googleは、これは数か月以内に展開されると述べています。
Google Assistantは引き続きスマートになり、Google Lensが組み込まれますが、その最大のニュースはAssistantがiPhoneに搭載されることです。
人気のあるGoogleフォトアプリには、「提案された共有」など、AI主導の新しい機能も多数追加されています。この機能では、最適な写真が自動的に選択され、写真に写っている人と共有することが提案されます。 Googleフォトには、自動的にすべてまたは一部を共有できる機能も追加されます
AI-Firstデータセンターと新しい開発ツール
内部的には、Pichaiが、同社がどのように「AI初のデータセンター」を構築するために計算アーキテクチャを「再考」しているかについて話しました。 彼は、Googleは基本検索から音声認識、AlphaGoコンペティションまで、すべてのサービスで現在のTensor Processing Unit(TPU)を使用していると語った。
特に、TPU 2.0の新しいバージョンの導入に興味をそそられました。ピチャイは、4チップボードあたり180テラフロップス(毎秒180兆回の浮動小数点演算)に達することができると言いました。 64個のボード。 これらは現在、Google Cloud Engineの「クラウドTPU」として開発者に提供されており、同社は、新しいTensorFlow Research Cloudを介して機械学習の研究者に1000のクラウドTPUを提供すると発表しました。
これは、開発者向けの同社のオープンソースの機械学習フレームワークであるTensorFlowへのプッシュの増加の一部であり、カンファレンスでは、より多くの開発者がこのフレームワークを使用できるようにすることを目的としたさまざまなセッションがありました。 TensorFlowは機械学習フレームワークの中で最も人気があるように見えますが、これは多くの選択肢の1つにすぎません。 (その他には、FacebookによってプッシュされるCaffe、およびAmazon Web ServicesによってプッシュされるMXNetが含まれます。)
私はフレームワークと福音伝道のために設計された「非専門家のためのTensorFlow」のセッションに行きました
そのようなサービスの開発は非常に難しいため、Pichaiは「AutoML」、つまりニューラルネットワークで新しいニューラルネットワークを設計するアプローチについて多くの時間を費やしました。 彼は、GoogleがAutoMLが今日少数のPhDが持っている能力を利用し、数十万人の開発者が特定のニーズに合わせて3〜5年で新しいニューラルネットを設計できるようにすることを望んでいると述べた。
これは、より多くの人々にAIを提供するためのGoogle.aiと呼ばれるより大きな努力の一部であり、PichaiはAIを使用して医療を支援するためのさまざまなイニシアチブについて語っています。 彼は、病理学と癌の検出、DNA配列決定、分子発見について話しました。
テーマを継続して、Androidエンジニアリングの責任者であるDave Burkeは、TensorFlow liteと呼ばれるモバイル向けに最適化されたTensorFlowの新しいバージョンを発表しました。 新しいライブラリにより、開発者はAndroidスマートフォンで実行するように設計されたよりスリムなディープラーニングモデルを構築でき、モバイルプロセッサの設計者がニューラルネットワークの推論やトレーニングのために設計されたプロセッサまたはDSPの特定のアクセラレータでどのように取り組んでいるかについて話しました。
GoogleのAI研究を率いるスタンフォード大学教授のFei Fei Li氏は、開発者の基調講演で、「誰もがAIを活用して競争力を維持し、最も重要な問題を解決できるようにするために」Googleに参加したと述べました。
彼女は、視覚、音声、翻訳、自然言語、ビデオインテリジェンスなどの特定のアプリケーション向けにGoogleが開発者に提供するさまざまなツールや、独自のモデルを作成するためのツールの作成など、「AIの民主化」 TensorFlowとして。これは、より高レベルのAPIを使用する方が簡単です。
彼女は、開発者がどのようにGoogle Compute EngineでCPU、GPU、またはTPUを使用できるようになるかについて話しました。 彼女は、一部のモデルがTPUで実行している速度の改善の例を示し、これが研究に与える意味は大きいと述べました。
Pichaiを称賛して、彼女は新しいTensorFlow Research Cloudを宣伝し、学生とKaggleユーザーはそれを使用するように申し込むべきだと言いました。 そして、同社がクラウドAIチームを作成して、AIを民主的にし、現在の場所であなたに会い、Googleの最も強力なAIツールを使用して、これらを使用する旅を共有すると言って締めくくりました。