Connect with us

エッジコンピューティングニュース

データベース主導の革新、DBOSがクラウドアプリ展開を変革

DBOS、新型オペレーティングシステム(OS)がPostgreSQL創設者Michael StonebrakerとDatabricks共同創設者Matei Zahariaにより開発。850万ドルの資金を調達し、クラウドアプリケーション向けに設計された。この革新的なOSは、データベース上で動作し、セキュリティ強化、システム管理の簡素化を実現。【用語解説とAIによる専門的コメントつき】

Published

on

データベース主導の革新、DBOSがクラウドアプリ展開を変革 - innovaTopia - (イノベトピア)

DBOS、データベース指向の新型オペレーティングシステム(OS)を開発するため、PostgreSQLの創設者であるMichael StonebrakerとDatabricksの共同創設者Matei Zahariaが力を合わせた。DBOSは、クラウドアプリケーションのデプロイメント用にクラウドネイティブなOSを提供するDBOS Cloudの立ち上げとともに、シード資金として850万ドルを調達したことを発表した。

DBOSは、現代のOSが直面する大規模な状態管理の課題に対処するために開発された。このシステムでは、OS上で動作するアプリケーションではなく、高性能なデータベース上でOSを動作させるという新しいアプローチを採用している。Stonebrakerによると、DBOSのアーキテクチャは、セキュリティの強化、システム管理の簡素化、ランサムウェア攻撃からの迅速な回復能力を提供する。

DBOSは、LinuxやKubernetesのetcdなどの既存技術に代わるものとして位置づけられている。DBOSは、OSの状態とアプリケーションの状態を同一のデータベース内でトランザクション処理することで、時間旅行デバッグやセキュリティなどの利点を提供する。現時点では、DBOSは「ベアメタル」OSではなく、LinuxなどのベアメタルOS上で動作する仮想マシンハイパーバイザー上で実行される。立ち上げ時、DBOSはAmazon Web Services (AWS)によって開発されたオープンソースのFirecrackerハイパーバイザー技術を使用している。

DBOSは、当初はTypescript言語をサポートしており、将来的には必要に応じて追加の言語をサポートする可能性がある。Stonebrakerは、DBOSがもはや科学プロジェクトではなく、本日の立ち上げにより、技術が実用段階に達したと主張している。

【ニュース解説】

PostgreSQLの創設者であるMichael Stonebraker氏とDatabricksの共同創設者Matei Zaharia氏が、データベース指向の新型オペレーティングシステム(OS)、DBOSの開発のために力を合わせました。このプロジェクトは、クラウドアプリケーションのデプロイメント用に設計されたクラウドネイティブなOS、DBOS Cloudの立ち上げとともに、シード資金として850万ドルを調達したことを発表しました。

DBOSは、現代のOSが直面している大規模な状態管理の課題に対処するために開発されました。従来、データベースはOS上で動作するアプリケーションの一種でしたが、DBOSではこの関係を逆転させ、高性能なデータネース上でOSを動作させるという新しいアプローチを採用しています。このアーキテクチャは、セキュリティの強化、システム管理の簡素化、ランサムウェア攻撃からの迅速な回復能力など、多くの利点を提供します。

DBOSは、LinuxやKubernetesのetcdなどの既存技術に対する代替手段として位置づけられています。OSの状態とアプリケーションの状態を同一のデータベース内でトランザクション処理することにより、時間旅行デバッグやセキュリティなどの利点を提供します。現時点では、DBOSは「ベアメタル」OSではなく、LinuxなどのベアメタルOS上で動作する仮想マシンハイパーバイザー上で実行されます。立ち上げ時には、Amazon Web Services (AWS)によって開発されたオープンソースのFirecrackerハイパーバイザー技術を使用しています。

当初、DBOSはTypescript言語をサポートしていますが、将来的には追加の言語をサポートする可能性があります。Stonebraker氏は、DBOSがもはや科学プロジェクトではなく、立ち上げにより技術が実用段階に達したと主張しています。

この技術の導入により、セキュリティ、システム管理の効率化、ランサムウェア攻撃からの迅速な回復など、多くのポジティブな側面が期待されます。しかし、新しいアーキテクチャへの移行には、既存のシステムやアプリケーションとの互換性、開発者のスキルセットの更新、新しいセキュリティリスクの評価など、潜在的な課題も伴います。また、このような根本的な変更は、規制や標準化のプロセスにも影響を与える可能性があります。

長期的には、DBOSのような技術がクラウドコンピューティングとアプリケーション開発のパラダイムを変革する可能性があります。これにより、よりセキュアで効率的なシステムの構築が可能になり、新たなイノベーションの扉を開くことになるでしょう。

from PostgreSQL and Databricks founders join forces for DBOS to create a new type of operating system.

AI(人工知能)ニュース

Google AI Edge Gallery│オフライン・ローカル実行可能なスマホ完結型のLLMで変わる私たちの生活

Published

on

 - innovaTopia - (イノベトピア)

AI処理の未来が、静かに書き換えられようとしている。これまで当然とされてきた「AIはクラウドで動作する」という前提を覆し、Googleは手のひらサイズのデバイスに知能を宿らせる技術的挑戦に踏み出した。数年前まで研究室レベルの夢物語だった「完全オフラインAI」が、今や誰でもダウンロード可能なアプリとして現実化している。この技術革新の背景には、従来のクラウド依存型AI処理が抱える根本的な課題——プライバシーリスク、ネットワーク遅延、接続環境への依存——を一挙に解決しようとするGoogleの戦略的意図が見える。エッジコンピューティング時代の到来を告げるこの動きは、AI業界の勢力図を塗り替える可能性を秘めているのだ。


Googleは2025年5月下旬、スマートフォンでAIモデルをローカル実行できるアプリ「Google AI Edge Gallery」をリリースした。

このアプリはAI開発プラットフォームHugging Faceで公開されているオープンソースAIモデルをダウンロードし、インターネット接続なしでオフライン実行を可能にする。現在Android版のみ提供されており、iOS版は近日リリース予定である。アプリは実験的アルファ版としてGitHubで配布され、Apache 2.0ライセンスの下で商用・非商用問わず制限なく利用できる。

主要機能として画像解析を行う「Ask Image」、テキスト要約や書き換えを行う「Prompt Lab」、対話型の「AI Chat」を搭載し、GoogleのGemma 3nモデルなど複数のAIモデルに対応している。モデルは対応スマートフォンのプロセッサを活用してローカルで動作し、個人データや機密情報の外部送信リスクを完全に排除する。

From:
 - innovaTopia - (イノベトピア)Google quietly released an app that lets you download and run AI models locally

【編集部解説】

Google AI Edge Galleryの登場は、私たちの日常生活に根本的な変化をもたらす可能性を秘めています。これまで「AIを使いたいけれど、個人情報が心配」という躊躇いを抱えていた多くの人々にとって、完全オフラインでの AI利用は画期的な転換点となるでしょう。

最も劇的な変化が期待されるのは、学習と教育の現場です。従来、AIを活用した学習支援は常にインターネット接続が前提でしたが、圏外の山間部や通信環境が不安定な地域でも、数学の問題を撮影するだけで解法を得られる環境が実現します。夜間の通信制限中でも、英作文の添削やプログラミングコードの解説を受けられることで、学習機会の平等化が大きく前進するはずです。

ビジネス環境においても、この技術は働き方そのものを変革します。機密文書の要約や翻訳を外部サーバーに送信することなく処理できるため、金融機関や医療機関といった高度なプライバシー保護が求められる業界でも、AI活用が現実的な選択肢となります。移動中の新幹線や飛行機の中でも、プレゼン資料の作成やメールの下書きをAIに支援してもらえる環境は、モバイルワークの質を飛躍的に向上させるでしょう。 クリエイティブ活動への影響も見逃せません。

写真撮影時のリアルタイム画像解析、動画編集中のシーン解析、音楽制作でのコード進行提案など、創作プロセスの各段階でAIサポートを受けられる環境は、クリエイターの表現力を大幅に拡張します。特に、作品のアイデア段階から完成まで、一切の外部漏洩リスクなしに AI協力を得られることで、より自由で実験的な創作活動が促進されるはずです。

高齢者や技術初心者にとっては、プライバシーへの不安なしにAI技術に触れる最初の機会となる可能性があります。「自分のデータがどこに送られているかわからない」という心理的バリアが取り除かれることで、AI活用の裾野が大きく広がることが期待されます。

長期的視点では、この技術は私たちの情報処理に対する基本的な考え方を変える可能性があります。「必要な情報はクラウドから取得する」から「必要な知能は手元で活用する」へのシフトは、プライバシー意識の向上と相まって、よりパーソナライズされた、安全なデジタル環境の構築を促進するはずです。Google AI Edge Galleryは、そうした未来への重要な第一歩なのです。

【用語解説】

Apache 2.0ライセンス:
オープンソースソフトウェア向けの代表的なライセンス規定の一つ。商用利用、改変、再配布、サブライセンスなどを無償かつ無制限に許可する。著作権表示とライセンス表示の保持が条件で、作成者は一切の責任を負わない。

TensorFlow Lite:
Googleが開発したモバイル端末向けの軽量機械学習フレームワーク。既存のTensorFlowモデルを「.tflite」形式に変換することで、iOS・Android端末で高速な推論処理を実現する。

MediaPipe:
Googleが開発したオープンソースのライブメディア処理ソリューション。顔検出、手検出、ポーズ検出などの機械学習タスクをリアルタイムで効率的に実行できる。Android、iOS、C++、Pythonなど多くのプラットフォームに対応している。

Google AI Edge Portal:
Google I/O 2025で発表されたGoogle Cloudの新ソリューション。オンデバイス機械学習のテストとベンチマークを大規模に実行するためのプラットフォームで、現在プライベートプレビュー段階にある。

【参考リンク】

Hugging Face(外部)AI開発プラットフォームの代表格。自然言語処理や画像認識などのオープンソースAIモデルを誰でも自由に利用・共有できる

Google AI Edge Gallery GitHub(外部)Google AI Edge Galleryの公式GitHubリポジトリ。実験的アルファ版のAndroid APKファイルを直接ダウンロードでき、アプリのソースコードも完全公開されている。Apache 2.0ライセンスで商用・非商用問わず自由に利用可能。

TensorFlow Lite公式サイト(外部)Googleが提供するモバイル・組み込みデバイス向け機械学習ツールセットの公式ドキュメント

【参考記事】

This Google experimental app lets you run powerful AI models – Android Police(外部)Google AI Edge Galleryのオフライン動作機能とプライバシー保護の利点について詳しく解説

100 things we announced at I/O – Google Blog(外部)Google I/O 2025で発表された100項目の中で、Google AI Edge Portalについて言及

【編集部後記】

スマートフォンにAIモデルを直接ダウンロードして、完全オフラインで動作させる——この一見シンプルな機能が、実は私たちのデジタルライフを根本から変える可能性を秘めています。インターネット接続を気にせず、プライバシーを完全に保護しながら、いつでもどこでもAIの力を活用できる未来が、もう手の届くところまで来ているのです。皆さんは、圏外でも動作するポケットサイズのAIアシスタントで、どのようなことを実現したいと思われますか?

AI(人工知能)ニュースをinnovaTopiaでもっと読む

Continue Reading

AI(人工知能)ニュース

EnCharge AI、アナログメモリ搭載「EN100」発表|20倍省電力でエッジAI革命へ

Published

on

By

EnCharge AI、アナログメモリ搭載「EN100」発表|20倍省電力でエッジAI革命へ - innovaTopia - (イノベトピア)

プリンストン大学発のAIチップスタートアップEnCharge AIが2025年5月29日、アナログインメモリコンピューティング技術を採用したAIアクセラレータ「EN100」を発表した。

同社はこれまでに1億4400万ドルを調達し、2022年に設立された。EN100はラップトップ、ワークステーション、エッジデバイス向けに設計され、200TOPS以上の計算性能を提供する。

製品はM.2(ラップトップ用)とPCIe(ワークステーション用)の2つの形態で展開される。M.2版は8.25Wの電力制約内で200TOPS以上を実現し、PCIe版は4つのNPUを搭載して約1ペタOPSに達する。

同社CEOのNaveen Verma氏は、従来のデジタルソリューションと比較して約20倍のエネルギー効率を実現すると述べた。

EN100はM.2版が最大32GBのLPDDRメモリと68GB/sの帯域幅、PCIe版が最大128GBのLPDDRメモリと272GB/sの帯域幅を備え、30TOPS/mm²の計算密度を持つ。投資家にはTiger Global、Samsung Ventures、RTX Venturesなどが含まれ、同社の従業員数は60人である。

From: 文献リンクEncharge AI unveils EN100 AI accelerator chip with analog memory

【編集部解説】

アナログインメモリコンピューティングの技術的革新性

EnCharge AIが採用するアナログインメモリコンピューティングは、従来のデジタルチップとは根本的に異なるアプローチを取っています。通常のAIチップでは、メモリから処理ユニットへのデータ転送が大きなボトルネックとなり、これが消費電力増大の主因でした。

同社の技術は、メモリ内で直接計算を実行することでこの問題を解決しています。具体的には、電荷ベースのメモリ読み取り方式を採用し、個別のビットセルではなく電流の合計から計算結果を得る手法により、従来比20倍のエネルギー効率を実現しているのです。

エッジAI市場への戦略的インパクト

この技術革新が最も大きな影響を与えるのは、エッジAI市場における力学の変化でしょう。現在、高度なAI処理の多くはクラウドデータセンターに依存していますが、EN100の登場により、ラップトップやワークステーションレベルでも本格的なAI推論が可能になります。

特に注目すべきは、M.2フォームファクターで200+ TOPSを8.25W以内で実現している点です。これは従来のモバイルGPUでは不可能だった性能密度であり、バッテリー駆動デバイスでの本格的なAI活用に道を開くものです。

産業界への波及効果と新たな可能性

この技術により、これまでクラウド依存だったAIアプリケーションの多くがローカル実行可能になります。リアルタイム画像認識、音声処理、自然言語処理などが、レイテンシやプライバシーの制約なしに実行できるようになるでしょう。

特に自動車産業、産業用ロボティクス、スマートリテールなどの分野では、リアルタイム性が重要な用途において大きな変革をもたらす可能性があります。また、医療機器や防衛システムなど、データの外部送信が困難な分野でも新たな応用が期待されます。

潜在的なリスクと課題

一方で、アナログコンピューティング技術には固有の課題も存在します。デジタル技術と比較して、温度変化や製造ばらつきに対する感度が高く、長期的な信頼性の確保が重要な課題となります。

また、既存のソフトウェアエコシステムとの互換性確保も重要です。同社はPyTorchやTensorFlowサポートを謳っていますが、開発者コミュニティでの採用が進むかどうかが成功の鍵を握るでしょう。

競合環境と市場ポジショニング

興味深いのは、EnCharge AIがNVIDIAやAMDとの直接競合を避け、エッジAI市場に特化している点です。これは賢明な戦略と言えるでしょう。データセンター市場は既存プレイヤーの支配が強固ですが、エッジAI市場はまだ成長途上であり、エネルギー効率という明確な差別化要因を持つ同社にとって有利な戦場となります。

長期的な業界への影響

この技術が広く普及すれば、AI処理の分散化が加速し、クラウドインフラへの依存度が大幅に低下する可能性があります。これは、データプライバシー、エネルギー消費、地政学的リスクなど、現在のAI業界が抱える多くの課題の解決策となり得るのです。

また、計算密度30TOPS/mm²という数値は、将来的にスマートフォンやIoTデバイスへの展開も視野に入れており、AIの民主化という観点からも注目に値する技術革新と言えるでしょう。

【用語解説】

TOPS(Tera Operations Per Second)
1秒間に実行可能な演算回数を示すAI性能の指標。1TOPSは1兆回の演算を意味し、AIチップの処理能力を測る標準的な単位である。

アナログインメモリコンピューティング
従来のデジタル処理とは異なり、メモリ内で直接アナログ計算を実行する技術。データの移動を最小化し、エネルギー効率を大幅に向上させる革新的なアプローチである。

M.2フォームファクター
ラップトップやタブレットなどの小型デバイス向けの標準的な拡張カード規格。薄型で省電力設計が特徴で、SSDやWi-Fiカードなどに広く使用されている。

PCIeカード
デスクトップPCやワークステーション向けの高速拡張インターフェース規格。グラフィックカードやネットワークカードなどの高性能コンポーネントに使用される。

NPU(Neural Processing Unit)
AI処理に特化した専用プロセッサ。従来のCPUやGPUと比較して、ニューラルネットワークの計算を効率的に実行できる。

電荷ベースメモリ
個別のビットセルではなく電荷の蓄積量から情報を読み取る方式。従来のトランジスタベースと比較してノイズに強く、精密な計算が可能である。

【参考リンク】

EnCharge AI公式サイト(外部)
同社の技術概要、製品情報、投資家情報などを掲載。アナログインメモリコンピューティング技術の詳細な説明を提供。

プリンストン大学(外部)
EnCharge AI創設者のNaveen Verma氏が教授を務める名門大学。同社の技術基盤となった基礎研究が行われた。

Tiger Global Management(外部)
EnCharge AIのシリーズB資金調達ラウンドを主導したニューヨーク拠点の投資会社。テクノロジー企業への投資を専門とする。

Samsung Ventures(外部)
サムスン電子の戦略投資部門。EnCharge AIへの投資を通じて、次世代AI技術への関心を示している。

【参考動画】

【編集部後記】

AIチップの進化は私たちの日常をどう変えていくのでしょうか。EnCharge AIのEN100が示すアナログインメモリコンピューティングは、これまでクラウドに依存していたAI処理をラップトップレベルで実現する可能性を秘めています。皆さんが普段使っているデバイスで、どのようなAI体験を求めていますか?プライバシーを重視したローカルAI処理と、クラウドの利便性、どちらを優先したいと考えますか?この技術革新が実用化された時、最初に試してみたいアプリケーションは何でしょうか?

【参考記事】

SiliconANGLE – EnCharge’s EN100 accelerator chip sets the stage for more powerful on-device AI inference(外部)
EN100チップの技術的詳細と市場への影響について詳細に分析した記事。電荷ベースメモリの仕組みと競合他社との比較分析が充実。

Business Wire – EnCharge AI Announces EN100, First-of-its-Kind AI Accelerator(外部)
EN100の正式発表に関する公式プレスリリース。製品仕様と早期アクセスプログラムの詳細が記載されている。

AIM Research – EnCharge AI Raises $100 Million To Challenge The AI Chip Status Quo(外部)
同社の資金調達背景と技術の商業化プロセスについて詳しく報じた記事。TSMCとの製造パートナーシップなど重要な情報が含まれる。

【関連記事】

半導体ニュースをinnovaTopiaでもっと読む

Continue Reading

AI(人工知能)ニュース

Google「Gemma 3n」発表:2GBで動作するモバイルファーストAI、オンデバイス処理でプライバシー革命

Published

on

By

Google「Gemma 3n」発表:2GBで動作するモバイルファーストAI、オンデバイス処理でプライバシー革命 - innovaTopia - (イノベトピア)

Googleは2025年5月20日、モバイルデバイス向けAIモデル「Gemma 3n」のプレビュー版を発表した。

同モデルはスマートフォン、タブレット、ラップトップ上で直接動作するよう設計され、Qualcomm Technologies、MediaTek、Samsung System LSI事業部と共同開発された新アーキテクチャを採用している。

Gemma 3nは5Bと8Bのパラメータ数を持ちながら、Google DeepMindが開発したPer-Layer Embeddings(PLE)技術により、2Bと4Bモデル相当の2GBから3GBのメモリフットプリントで動作する。

従来のGemma 3 4Bと比較して約1.5倍高速に応答し、テキスト、画像、音声、動画を処理するマルチモーダル機能を備える。音声認識と多言語翻訳機能を搭載し、日本語、ドイツ語、韓国語、スペイン語、フランス語での性能が向上している。

同技術は次世代Gemini Nanoの基盤としても活用され、2025年後半にAndroidとChromeで利用可能になる予定である。現在Google AI StudioとGoogle AI Edge Galleryアプリで利用可能で、完全オフラインでの動作を実現している。

From: 文献リンクAnnouncing Gemma 3n preview: powerful, efficient, mobile-first AI

【編集部解説】

Gemma 3nの発表は、AI業界における重要な転換点を示しています。これまでの大規模言語モデルが主にクラウド上での処理を前提としていたのに対し、Gemma 3nはスマートフォンやタブレットといった身近なデバイス上で直接動作することを目指した設計となっています。

技術的革新の核心

最も注目すべきは、Google DeepMindが開発したPer-Layer Embeddings(PLE)技術です。この技術により、5Bや8Bという大きなパラメータ数を持ちながら、実際のメモリ使用量は2GBから3GBに抑えられています。これは従来の常識を覆す画期的な進歩といえるでしょう。

MatFormerアーキテクチャも興味深い特徴です。ロシアのマトリョーシカ人形のように、大きなモデルの中に小さなモデルが入れ子状に組み込まれており、タスクの複雑さに応じて必要な部分だけを動作させることができます。

プライバシーとセキュリティの新次元

オンデバイス処理の最大のメリットは、ユーザーデータがデバイスから外部に送信されないことです。音声認識や画像解析といったセンシティブな処理が、完全にローカルで完結するため、プライバシー保護の観点から革命的な変化をもたらします。

実際の体験可能性

Google AI Edge Galleryアプリの提供により、開発者だけでなく一般ユーザーも実際にオンデバイスAIを体験できるようになりました。完全オフラインでの動作により、インターネット接続がない環境でも高度なAI機能を利用できる点は画期的です。

マルチモーダル機能の実用化

Gemma 3nは音声、テキスト、画像、動画を統合的に処理できる能力を持っています。これにより、リアルタイムでの多言語翻訳や、カメラで撮影した文書の即座の解析といった、これまでクラウド接続が必要だった機能がオフラインで利用可能になります。

潜在的な課題とリスク

一方で、オープンソースモデルとしてのライセンス問題も指摘されています。また、モデルの小型化に伴う性能の限界や、悪用の可能性についても継続的な監視が必要でしょう。

業界への波及効果

Gemma 3nの登場は、AI処理の分散化という大きなトレンドを加速させる可能性があります。クラウド依存からの脱却により、通信コストの削減や応答速度の向上が期待される一方、デバイスメーカーにとってはより高性能なチップセットの開発が急務となります。

長期的な展望

この技術は、AIの民主化という観点からも重要な意味を持ちます。高価なクラウドサービスに依存することなく、個人や小規模企業でも高度なAI機能を活用できる環境が整いつつあります。ただし、モデルの更新やセキュリティパッチの配布方法など、新たな課題も浮上してくるでしょう。

Gemma 3nは単なる技術的進歩を超えて、AIとの関わり方そのものを変える可能性を秘めた革新的なプロダクトといえます。

【用語解説】

Per-Layer Embeddings(PLE)
Google DeepMindが開発した技術で、AIモデルの各層の埋め込みパラメータを高速な外部ストレージにオフロードし、必要に応じて取得することでRAM使用量を大幅に削減する仕組みである。

MatFormerアーキテクチャ
ロシアのマトリョーシカ人形のように、大きなモデルの中に小さなサブモデルが入れ子状に組み込まれた構造で、タスクの複雑さに応じて必要な部分だけを選択的に動作させることができる。

オンデバイスAI
クラウドサーバーに依存せず、スマートフォンやタブレットなどのデバイス上で直接AI処理を実行する技術である。プライバシー保護や応答速度の向上が期待される。

エッジAI
データが生成される場所(エッジ)でAI処理を行う技術で、クラウドとの通信遅延を削減し、リアルタイム処理を可能にする。

マルチモーダル
テキスト、音声、画像、動画など複数の異なる形式のデータを統合的に処理・理解できるAI技術である。

Gemini Nano
Googleが開発したモバイルデバイス向けの軽量AIモデルで、Pixel 8 ProなどのAndroid端末に搭載されている。

【参考リンク】

Google AI Studio(外部)
GoogleのAI開発プラットフォームで、Gemma 3nを含む各種AIモデルの実験や開発が可能

Google AI Edge Gallery(外部)
Gemma 3nを実際に体験できる実験的なAndroidアプリ。完全オフラインでのAI機能を試すことができる

Qualcomm Technologies(外部)
米国の半導体企業で、スマートフォン向けプロセッサSnapdragonシリーズで知られる

MediaTek(外部)
台湾の半導体メーカーで、スマートフォンやタブレット向けのSoCを開発

Samsung System LSI(外部)
サムスン電子の半導体事業部門で、プロセッサやイメージセンサーなどを設計・製造

【参考動画】

【編集部後記】

Gemma 3nの登場により、私たちの手元にあるスマートフォンが、まるでSF映画のような高度なAIアシスタントに変わろうとしています。プライバシーを完全に保護しながら、リアルタイムで多言語翻訳や画像解析ができる未来が、もうすぐそこまで来ているのです。皆さんは、こうしたオンデバイスAIの進化によって、どのような新しい体験や可能性を期待されますか?また、日常生活でどんな場面で活用してみたいと思われるでしょうか?ぜひSNSで教えてください。

【参考記事】

Gemma 3n – モバイルファーストを実現する高効率な次世代AIモデル(外部)
Gemma 3nの技術的詳細と実用的なアプリケーションについて包括的に解説した記事

スマホでAIがローカルで動く時代へ!Gemma 3nのプレビュー版を解説(外部)
Gemma 3nの実際の使用方法とGoogle AI Edge Galleryアプリの詳細な使い方を説明

Android で Gemma-3n を試す(外部)
AndroidデバイスでGemma 3nを実際に動作させる具体的な手順を詳しく解説した技術記事

【関連記事】

AI(人工知能)ニュースをinnovaTopiaでもっと読む

Continue Reading

Trending