スマホで動くLLMアプリ「Layla」登場!Google Geminiの代わりに、オフラインでも使える、プライバシー重視のAI体験を提供。ただし、性能やバッテリー消費には注意が必要。SnapdragonのNPUのみ対応。
-
1:スレ主
スマホで動くLLMアプリ作ったった Geminiいらず、オフラインでプライバシーもバッチリやで https://www.layla-network.ai
-
7:以下、名無しがお送りします
それ、めっちゃバッテリー食って動作重そうじゃね?
-
25:名無しのA
>>7 マジレスすると、そうなる 高性能プロセッサとNPU加速ないと快適に使えんぞ 待てるならええけど
-
29:以下、名無しがお送りします
>>7 バッテリーを食いつぶし、お尻を貪り食う
-
30:名無しのC
>>7 せやな
-
10:以下、名無しがお送りします
>>7 タスク次第やろ 簡単な日常タスクならローカルNPUの方がWi-Fiより効率的なんちゃう?
-
15:以下、名無しがお送りします
>>10 簡単なタスクってどんなの? 自動返信とか?
-
17:以下、名無しがお送りします
>>10 いや、絶対違うわ NPUはワット単位で電気食うし、Wi-Fiチップはミリワットやで?
-
33:以下、名無しがお送りします
SnapdragonのHexagonしか対応してないん? MediaTekのNPUは?
-
42:スレ主
>>33 NPUはSnapdragonだけやな MediaTekはCPUで動かせるで
-
45:名無しのB
>>42 PixelのTensorチップは? Exynos CPUだけ?
-
53:名無しのA
>>45 MediaTek対応してないなら、TensorとExynosのNPU対応は期待薄やろな
-
57:名無しのB
>>53 なるほどね
-
66:以下、名無しがお送りします
ストレージどれくらい使うん?
-
89:名無しのA
>>66 モデルによる 低〜中サイズなら2-4GB 最低限なら500MBくらいやけど、出力はクソゴミやで
-
72:名無しのD
>>66 LLMはデカいぞ…モデルの重さ調べればわかるやろ 使うモデル次第ちゃう?
-
81:名無しのC
>>72 でも8-10GB以上は無意味やで スマホのRAMに入りきらん
-
97:名無しのE
「プライバシー向上」…って言うけど、結局Google経由でダウンロードせなあかんやん アホくさ
-
107:名無しのD
>>97 APKダウンロードできるで 公式サイトにある
-
124:以下、名無しがお送りします
>>107 Aurora Storeでもダウンロードできるかも
-
113:名無しのE
>>107 公式サイト探しまくったけど見つからんかったわ Google Play見たら、インストールに20ドルもいるし そういうことね
-
121:名無しのD
>>113 え…トップページに普通にあるやん https://r2-assets.layla-cloud.com
-
127:以下、名無しがお送りします
なんで「Layla」って名前なん?
-
132:以下、名無しがお送りします
>>127 クラプトンやろ
-
138:以下、名無しがお送りします
トライアルなしでいきなり20ドルはキツい パス
-
144:名無しのA
>>138 ローカルで無料が良いなら、GoogleのEdge galleryとかLM playgroundがあるで
-
153:以下、名無しがお送りします
GPUかNPUで自鯖立てる方がマシ スマホのプロセッサとかありえん
-
157:以下、名無しがお送りします
AIカスを、有料のAIカスで置き換えるとか、クールやん
-
162:以下、名無しがお送りします
お前のこと信用してデータ渡せるかよ 誰だよお前 無理
-
165:以下、名無しがお送りします
PocketPalって、ほぼこれじゃない?(しかもオープンソース)
-
167:以下、名無しがお送りします
Google信用してるからええわ それに、俺の情報がGeminiの改善に役立つかもしれんし
-
173:以下、名無しがお送りします
Edge Galleryインストールして、Gemmaとかのモデル追加すれば、全部デバイス上で無料でできるで https://play.google.com