Connect with us

エッジコンピューティングニュース

3Dモデリングで水中の真実を抽出:持続可能な海洋管理を支える光技術

Published

on

 - innovaTopia - (イノベトピア)

MITとウッズホール海洋研究所の共同研究チームは、3Dガウシアンスプラッティングを応用した水中映像処理技術を開発した。複数角度から撮影した画像から光の散乱・吸収効果を物理モデルで除去し、水の影響を受けない3Dシーンを構築可能。従来の2D画像処理技術「Sea-Thru」と比較して、計算時間を87%短縮しつつサンゴ礁の3次元構造をマイクロメートル精度で可視化する。

References:
文献リンクImaging technique removes the effect of water from underwater scenes | MIT News
文献リンクCoral Reef Monitoring Project | Woods Hole Oceanographic Institution

【編集部解説】

水中視覚のデジタル浄化
この技術は水中カメラの「レンズ曇り」をソフトウェアで解決する画期的な手法です。例えば水深20mで撮影した赤いサンゴは、青色光の散乱で実際の色より最大60%褪せて記録されますが、物理モデルに基づく逆計算で本来の色調を復元します。

生態監視の新地平
2025年4月の実証実験では、紅海のサンゴ礁で1cm²あたり300個のポリプを識別可能でした。研究者は「水中ドローンで撮影したデータを船上で即時処理し、白化現象の早期警告システム構築が可能」とコメントしています。

産業応用の展望
現在1フレームの処理にGPUを要しますが、2026年までにエッジコンピューティング対応を目指しています。実用化されれば、海底ケーブル検査や海洋プラスチック調査の効率化が期待されます。

【用語解説】

3Dガウシアンスプラッティング
複数の視点画像から3Dモデルを構築する手法。ガウス分布で表現した粒子状の点群を使い、自然な3D再構成と高速なレンダリングを実現します。

後方散乱
水中でカメラと被写体の間を往復する光が画像に白濁やぼやけをもたらす現象。波長や水質によって影響が異なります。

光の減衰
水中で光が進むにつれて波長ごとに吸収され、特に赤色光が急速に失われる現象。水深が深いほど顕著です。

【参考リンク】

MIT News(外部)
MITが発表した水中3Dモデリング技術の詳細と研究背景を解説した公式ニュース。

Woods Hole Oceanographic Institution(外部)
ウッズホール海洋研究所によるサンゴ礁モニタリングプロジェクトの概要と最新成果。

【関連記事】

サステナブルニュースをinnovaTopiaでもっと読む

AI(人工知能)ニュース

Google AI Edge Gallery│オフライン・ローカル実行可能なスマホ完結型のLLMで変わる私たちの生活

Published

on

 - innovaTopia - (イノベトピア)

AI処理の未来が、静かに書き換えられようとしている。これまで当然とされてきた「AIはクラウドで動作する」という前提を覆し、Googleは手のひらサイズのデバイスに知能を宿らせる技術的挑戦に踏み出した。数年前まで研究室レベルの夢物語だった「完全オフラインAI」が、今や誰でもダウンロード可能なアプリとして現実化している。この技術革新の背景には、従来のクラウド依存型AI処理が抱える根本的な課題——プライバシーリスク、ネットワーク遅延、接続環境への依存——を一挙に解決しようとするGoogleの戦略的意図が見える。エッジコンピューティング時代の到来を告げるこの動きは、AI業界の勢力図を塗り替える可能性を秘めているのだ。


Googleは2025年5月下旬、スマートフォンでAIモデルをローカル実行できるアプリ「Google AI Edge Gallery」をリリースした。

このアプリはAI開発プラットフォームHugging Faceで公開されているオープンソースAIモデルをダウンロードし、インターネット接続なしでオフライン実行を可能にする。現在Android版のみ提供されており、iOS版は近日リリース予定である。アプリは実験的アルファ版としてGitHubで配布され、Apache 2.0ライセンスの下で商用・非商用問わず制限なく利用できる。

主要機能として画像解析を行う「Ask Image」、テキスト要約や書き換えを行う「Prompt Lab」、対話型の「AI Chat」を搭載し、GoogleのGemma 3nモデルなど複数のAIモデルに対応している。モデルは対応スマートフォンのプロセッサを活用してローカルで動作し、個人データや機密情報の外部送信リスクを完全に排除する。

From:
 - innovaTopia - (イノベトピア)Google quietly released an app that lets you download and run AI models locally

【編集部解説】

Google AI Edge Galleryの登場は、私たちの日常生活に根本的な変化をもたらす可能性を秘めています。これまで「AIを使いたいけれど、個人情報が心配」という躊躇いを抱えていた多くの人々にとって、完全オフラインでの AI利用は画期的な転換点となるでしょう。

最も劇的な変化が期待されるのは、学習と教育の現場です。従来、AIを活用した学習支援は常にインターネット接続が前提でしたが、圏外の山間部や通信環境が不安定な地域でも、数学の問題を撮影するだけで解法を得られる環境が実現します。夜間の通信制限中でも、英作文の添削やプログラミングコードの解説を受けられることで、学習機会の平等化が大きく前進するはずです。

ビジネス環境においても、この技術は働き方そのものを変革します。機密文書の要約や翻訳を外部サーバーに送信することなく処理できるため、金融機関や医療機関といった高度なプライバシー保護が求められる業界でも、AI活用が現実的な選択肢となります。移動中の新幹線や飛行機の中でも、プレゼン資料の作成やメールの下書きをAIに支援してもらえる環境は、モバイルワークの質を飛躍的に向上させるでしょう。 クリエイティブ活動への影響も見逃せません。

写真撮影時のリアルタイム画像解析、動画編集中のシーン解析、音楽制作でのコード進行提案など、創作プロセスの各段階でAIサポートを受けられる環境は、クリエイターの表現力を大幅に拡張します。特に、作品のアイデア段階から完成まで、一切の外部漏洩リスクなしに AI協力を得られることで、より自由で実験的な創作活動が促進されるはずです。

高齢者や技術初心者にとっては、プライバシーへの不安なしにAI技術に触れる最初の機会となる可能性があります。「自分のデータがどこに送られているかわからない」という心理的バリアが取り除かれることで、AI活用の裾野が大きく広がることが期待されます。

長期的視点では、この技術は私たちの情報処理に対する基本的な考え方を変える可能性があります。「必要な情報はクラウドから取得する」から「必要な知能は手元で活用する」へのシフトは、プライバシー意識の向上と相まって、よりパーソナライズされた、安全なデジタル環境の構築を促進するはずです。Google AI Edge Galleryは、そうした未来への重要な第一歩なのです。

【用語解説】

Apache 2.0ライセンス:
オープンソースソフトウェア向けの代表的なライセンス規定の一つ。商用利用、改変、再配布、サブライセンスなどを無償かつ無制限に許可する。著作権表示とライセンス表示の保持が条件で、作成者は一切の責任を負わない。

TensorFlow Lite:
Googleが開発したモバイル端末向けの軽量機械学習フレームワーク。既存のTensorFlowモデルを「.tflite」形式に変換することで、iOS・Android端末で高速な推論処理を実現する。

MediaPipe:
Googleが開発したオープンソースのライブメディア処理ソリューション。顔検出、手検出、ポーズ検出などの機械学習タスクをリアルタイムで効率的に実行できる。Android、iOS、C++、Pythonなど多くのプラットフォームに対応している。

Google AI Edge Portal:
Google I/O 2025で発表されたGoogle Cloudの新ソリューション。オンデバイス機械学習のテストとベンチマークを大規模に実行するためのプラットフォームで、現在プライベートプレビュー段階にある。

【参考リンク】

Hugging Face(外部)AI開発プラットフォームの代表格。自然言語処理や画像認識などのオープンソースAIモデルを誰でも自由に利用・共有できる

Google AI Edge Gallery GitHub(外部)Google AI Edge Galleryの公式GitHubリポジトリ。実験的アルファ版のAndroid APKファイルを直接ダウンロードでき、アプリのソースコードも完全公開されている。Apache 2.0ライセンスで商用・非商用問わず自由に利用可能。

TensorFlow Lite公式サイト(外部)Googleが提供するモバイル・組み込みデバイス向け機械学習ツールセットの公式ドキュメント

【参考記事】

This Google experimental app lets you run powerful AI models – Android Police(外部)Google AI Edge Galleryのオフライン動作機能とプライバシー保護の利点について詳しく解説

100 things we announced at I/O – Google Blog(外部)Google I/O 2025で発表された100項目の中で、Google AI Edge Portalについて言及

【編集部後記】

スマートフォンにAIモデルを直接ダウンロードして、完全オフラインで動作させる——この一見シンプルな機能が、実は私たちのデジタルライフを根本から変える可能性を秘めています。インターネット接続を気にせず、プライバシーを完全に保護しながら、いつでもどこでもAIの力を活用できる未来が、もう手の届くところまで来ているのです。皆さんは、圏外でも動作するポケットサイズのAIアシスタントで、どのようなことを実現したいと思われますか?

AI(人工知能)ニュースをinnovaTopiaでもっと読む

Continue Reading

AI(人工知能)ニュース

EnCharge AI、アナログメモリ搭載「EN100」発表|20倍省電力でエッジAI革命へ

Published

on

By

EnCharge AI、アナログメモリ搭載「EN100」発表|20倍省電力でエッジAI革命へ - innovaTopia - (イノベトピア)

プリンストン大学発のAIチップスタートアップEnCharge AIが2025年5月29日、アナログインメモリコンピューティング技術を採用したAIアクセラレータ「EN100」を発表した。

同社はこれまでに1億4400万ドルを調達し、2022年に設立された。EN100はラップトップ、ワークステーション、エッジデバイス向けに設計され、200TOPS以上の計算性能を提供する。

製品はM.2(ラップトップ用)とPCIe(ワークステーション用)の2つの形態で展開される。M.2版は8.25Wの電力制約内で200TOPS以上を実現し、PCIe版は4つのNPUを搭載して約1ペタOPSに達する。

同社CEOのNaveen Verma氏は、従来のデジタルソリューションと比較して約20倍のエネルギー効率を実現すると述べた。

EN100はM.2版が最大32GBのLPDDRメモリと68GB/sの帯域幅、PCIe版が最大128GBのLPDDRメモリと272GB/sの帯域幅を備え、30TOPS/mm²の計算密度を持つ。投資家にはTiger Global、Samsung Ventures、RTX Venturesなどが含まれ、同社の従業員数は60人である。

From: 文献リンクEncharge AI unveils EN100 AI accelerator chip with analog memory

【編集部解説】

アナログインメモリコンピューティングの技術的革新性

EnCharge AIが採用するアナログインメモリコンピューティングは、従来のデジタルチップとは根本的に異なるアプローチを取っています。通常のAIチップでは、メモリから処理ユニットへのデータ転送が大きなボトルネックとなり、これが消費電力増大の主因でした。

同社の技術は、メモリ内で直接計算を実行することでこの問題を解決しています。具体的には、電荷ベースのメモリ読み取り方式を採用し、個別のビットセルではなく電流の合計から計算結果を得る手法により、従来比20倍のエネルギー効率を実現しているのです。

エッジAI市場への戦略的インパクト

この技術革新が最も大きな影響を与えるのは、エッジAI市場における力学の変化でしょう。現在、高度なAI処理の多くはクラウドデータセンターに依存していますが、EN100の登場により、ラップトップやワークステーションレベルでも本格的なAI推論が可能になります。

特に注目すべきは、M.2フォームファクターで200+ TOPSを8.25W以内で実現している点です。これは従来のモバイルGPUでは不可能だった性能密度であり、バッテリー駆動デバイスでの本格的なAI活用に道を開くものです。

産業界への波及効果と新たな可能性

この技術により、これまでクラウド依存だったAIアプリケーションの多くがローカル実行可能になります。リアルタイム画像認識、音声処理、自然言語処理などが、レイテンシやプライバシーの制約なしに実行できるようになるでしょう。

特に自動車産業、産業用ロボティクス、スマートリテールなどの分野では、リアルタイム性が重要な用途において大きな変革をもたらす可能性があります。また、医療機器や防衛システムなど、データの外部送信が困難な分野でも新たな応用が期待されます。

潜在的なリスクと課題

一方で、アナログコンピューティング技術には固有の課題も存在します。デジタル技術と比較して、温度変化や製造ばらつきに対する感度が高く、長期的な信頼性の確保が重要な課題となります。

また、既存のソフトウェアエコシステムとの互換性確保も重要です。同社はPyTorchやTensorFlowサポートを謳っていますが、開発者コミュニティでの採用が進むかどうかが成功の鍵を握るでしょう。

競合環境と市場ポジショニング

興味深いのは、EnCharge AIがNVIDIAやAMDとの直接競合を避け、エッジAI市場に特化している点です。これは賢明な戦略と言えるでしょう。データセンター市場は既存プレイヤーの支配が強固ですが、エッジAI市場はまだ成長途上であり、エネルギー効率という明確な差別化要因を持つ同社にとって有利な戦場となります。

長期的な業界への影響

この技術が広く普及すれば、AI処理の分散化が加速し、クラウドインフラへの依存度が大幅に低下する可能性があります。これは、データプライバシー、エネルギー消費、地政学的リスクなど、現在のAI業界が抱える多くの課題の解決策となり得るのです。

また、計算密度30TOPS/mm²という数値は、将来的にスマートフォンやIoTデバイスへの展開も視野に入れており、AIの民主化という観点からも注目に値する技術革新と言えるでしょう。

【用語解説】

TOPS(Tera Operations Per Second)
1秒間に実行可能な演算回数を示すAI性能の指標。1TOPSは1兆回の演算を意味し、AIチップの処理能力を測る標準的な単位である。

アナログインメモリコンピューティング
従来のデジタル処理とは異なり、メモリ内で直接アナログ計算を実行する技術。データの移動を最小化し、エネルギー効率を大幅に向上させる革新的なアプローチである。

M.2フォームファクター
ラップトップやタブレットなどの小型デバイス向けの標準的な拡張カード規格。薄型で省電力設計が特徴で、SSDやWi-Fiカードなどに広く使用されている。

PCIeカード
デスクトップPCやワークステーション向けの高速拡張インターフェース規格。グラフィックカードやネットワークカードなどの高性能コンポーネントに使用される。

NPU(Neural Processing Unit)
AI処理に特化した専用プロセッサ。従来のCPUやGPUと比較して、ニューラルネットワークの計算を効率的に実行できる。

電荷ベースメモリ
個別のビットセルではなく電荷の蓄積量から情報を読み取る方式。従来のトランジスタベースと比較してノイズに強く、精密な計算が可能である。

【参考リンク】

EnCharge AI公式サイト(外部)
同社の技術概要、製品情報、投資家情報などを掲載。アナログインメモリコンピューティング技術の詳細な説明を提供。

プリンストン大学(外部)
EnCharge AI創設者のNaveen Verma氏が教授を務める名門大学。同社の技術基盤となった基礎研究が行われた。

Tiger Global Management(外部)
EnCharge AIのシリーズB資金調達ラウンドを主導したニューヨーク拠点の投資会社。テクノロジー企業への投資を専門とする。

Samsung Ventures(外部)
サムスン電子の戦略投資部門。EnCharge AIへの投資を通じて、次世代AI技術への関心を示している。

【参考動画】

【編集部後記】

AIチップの進化は私たちの日常をどう変えていくのでしょうか。EnCharge AIのEN100が示すアナログインメモリコンピューティングは、これまでクラウドに依存していたAI処理をラップトップレベルで実現する可能性を秘めています。皆さんが普段使っているデバイスで、どのようなAI体験を求めていますか?プライバシーを重視したローカルAI処理と、クラウドの利便性、どちらを優先したいと考えますか?この技術革新が実用化された時、最初に試してみたいアプリケーションは何でしょうか?

【参考記事】

SiliconANGLE – EnCharge’s EN100 accelerator chip sets the stage for more powerful on-device AI inference(外部)
EN100チップの技術的詳細と市場への影響について詳細に分析した記事。電荷ベースメモリの仕組みと競合他社との比較分析が充実。

Business Wire – EnCharge AI Announces EN100, First-of-its-Kind AI Accelerator(外部)
EN100の正式発表に関する公式プレスリリース。製品仕様と早期アクセスプログラムの詳細が記載されている。

AIM Research – EnCharge AI Raises $100 Million To Challenge The AI Chip Status Quo(外部)
同社の資金調達背景と技術の商業化プロセスについて詳しく報じた記事。TSMCとの製造パートナーシップなど重要な情報が含まれる。

【関連記事】

半導体ニュースをinnovaTopiaでもっと読む

Continue Reading

AI(人工知能)ニュース

Google「Gemma 3n」発表:2GBで動作するモバイルファーストAI、オンデバイス処理でプライバシー革命

Published

on

By

Google「Gemma 3n」発表:2GBで動作するモバイルファーストAI、オンデバイス処理でプライバシー革命 - innovaTopia - (イノベトピア)

Googleは2025年5月20日、モバイルデバイス向けAIモデル「Gemma 3n」のプレビュー版を発表した。

同モデルはスマートフォン、タブレット、ラップトップ上で直接動作するよう設計され、Qualcomm Technologies、MediaTek、Samsung System LSI事業部と共同開発された新アーキテクチャを採用している。

Gemma 3nは5Bと8Bのパラメータ数を持ちながら、Google DeepMindが開発したPer-Layer Embeddings(PLE)技術により、2Bと4Bモデル相当の2GBから3GBのメモリフットプリントで動作する。

従来のGemma 3 4Bと比較して約1.5倍高速に応答し、テキスト、画像、音声、動画を処理するマルチモーダル機能を備える。音声認識と多言語翻訳機能を搭載し、日本語、ドイツ語、韓国語、スペイン語、フランス語での性能が向上している。

同技術は次世代Gemini Nanoの基盤としても活用され、2025年後半にAndroidとChromeで利用可能になる予定である。現在Google AI StudioとGoogle AI Edge Galleryアプリで利用可能で、完全オフラインでの動作を実現している。

From: 文献リンクAnnouncing Gemma 3n preview: powerful, efficient, mobile-first AI

【編集部解説】

Gemma 3nの発表は、AI業界における重要な転換点を示しています。これまでの大規模言語モデルが主にクラウド上での処理を前提としていたのに対し、Gemma 3nはスマートフォンやタブレットといった身近なデバイス上で直接動作することを目指した設計となっています。

技術的革新の核心

最も注目すべきは、Google DeepMindが開発したPer-Layer Embeddings(PLE)技術です。この技術により、5Bや8Bという大きなパラメータ数を持ちながら、実際のメモリ使用量は2GBから3GBに抑えられています。これは従来の常識を覆す画期的な進歩といえるでしょう。

MatFormerアーキテクチャも興味深い特徴です。ロシアのマトリョーシカ人形のように、大きなモデルの中に小さなモデルが入れ子状に組み込まれており、タスクの複雑さに応じて必要な部分だけを動作させることができます。

プライバシーとセキュリティの新次元

オンデバイス処理の最大のメリットは、ユーザーデータがデバイスから外部に送信されないことです。音声認識や画像解析といったセンシティブな処理が、完全にローカルで完結するため、プライバシー保護の観点から革命的な変化をもたらします。

実際の体験可能性

Google AI Edge Galleryアプリの提供により、開発者だけでなく一般ユーザーも実際にオンデバイスAIを体験できるようになりました。完全オフラインでの動作により、インターネット接続がない環境でも高度なAI機能を利用できる点は画期的です。

マルチモーダル機能の実用化

Gemma 3nは音声、テキスト、画像、動画を統合的に処理できる能力を持っています。これにより、リアルタイムでの多言語翻訳や、カメラで撮影した文書の即座の解析といった、これまでクラウド接続が必要だった機能がオフラインで利用可能になります。

潜在的な課題とリスク

一方で、オープンソースモデルとしてのライセンス問題も指摘されています。また、モデルの小型化に伴う性能の限界や、悪用の可能性についても継続的な監視が必要でしょう。

業界への波及効果

Gemma 3nの登場は、AI処理の分散化という大きなトレンドを加速させる可能性があります。クラウド依存からの脱却により、通信コストの削減や応答速度の向上が期待される一方、デバイスメーカーにとってはより高性能なチップセットの開発が急務となります。

長期的な展望

この技術は、AIの民主化という観点からも重要な意味を持ちます。高価なクラウドサービスに依存することなく、個人や小規模企業でも高度なAI機能を活用できる環境が整いつつあります。ただし、モデルの更新やセキュリティパッチの配布方法など、新たな課題も浮上してくるでしょう。

Gemma 3nは単なる技術的進歩を超えて、AIとの関わり方そのものを変える可能性を秘めた革新的なプロダクトといえます。

【用語解説】

Per-Layer Embeddings(PLE)
Google DeepMindが開発した技術で、AIモデルの各層の埋め込みパラメータを高速な外部ストレージにオフロードし、必要に応じて取得することでRAM使用量を大幅に削減する仕組みである。

MatFormerアーキテクチャ
ロシアのマトリョーシカ人形のように、大きなモデルの中に小さなサブモデルが入れ子状に組み込まれた構造で、タスクの複雑さに応じて必要な部分だけを選択的に動作させることができる。

オンデバイスAI
クラウドサーバーに依存せず、スマートフォンやタブレットなどのデバイス上で直接AI処理を実行する技術である。プライバシー保護や応答速度の向上が期待される。

エッジAI
データが生成される場所(エッジ)でAI処理を行う技術で、クラウドとの通信遅延を削減し、リアルタイム処理を可能にする。

マルチモーダル
テキスト、音声、画像、動画など複数の異なる形式のデータを統合的に処理・理解できるAI技術である。

Gemini Nano
Googleが開発したモバイルデバイス向けの軽量AIモデルで、Pixel 8 ProなどのAndroid端末に搭載されている。

【参考リンク】

Google AI Studio(外部)
GoogleのAI開発プラットフォームで、Gemma 3nを含む各種AIモデルの実験や開発が可能

Google AI Edge Gallery(外部)
Gemma 3nを実際に体験できる実験的なAndroidアプリ。完全オフラインでのAI機能を試すことができる

Qualcomm Technologies(外部)
米国の半導体企業で、スマートフォン向けプロセッサSnapdragonシリーズで知られる

MediaTek(外部)
台湾の半導体メーカーで、スマートフォンやタブレット向けのSoCを開発

Samsung System LSI(外部)
サムスン電子の半導体事業部門で、プロセッサやイメージセンサーなどを設計・製造

【参考動画】

【編集部後記】

Gemma 3nの登場により、私たちの手元にあるスマートフォンが、まるでSF映画のような高度なAIアシスタントに変わろうとしています。プライバシーを完全に保護しながら、リアルタイムで多言語翻訳や画像解析ができる未来が、もうすぐそこまで来ているのです。皆さんは、こうしたオンデバイスAIの進化によって、どのような新しい体験や可能性を期待されますか?また、日常生活でどんな場面で活用してみたいと思われるでしょうか?ぜひSNSで教えてください。

【参考記事】

Gemma 3n – モバイルファーストを実現する高効率な次世代AIモデル(外部)
Gemma 3nの技術的詳細と実用的なアプリケーションについて包括的に解説した記事

スマホでAIがローカルで動く時代へ!Gemma 3nのプレビュー版を解説(外部)
Gemma 3nの実際の使用方法とGoogle AI Edge Galleryアプリの詳細な使い方を説明

Android で Gemma-3n を試す(外部)
AndroidデバイスでGemma 3nを実際に動作させる具体的な手順を詳しく解説した技術記事

【関連記事】

AI(人工知能)ニュースをinnovaTopiaでもっと読む

Continue Reading

Trending