【Gemini画面操作】アプリ勝手に操作して注文すんの?

 コメント2件

Geminiの「画面自動操作」でAndroid上のアプリを人の代わりに操作して注文や配車ができるようになる、という話題に対する賛否や懸念(プライバシーや誤操作、障害者支援の利点、ローカル処理希望など)。主にユーザーの拒否感と利便性・アクセシビリティの擁護が対立している。

  • 1:以下、名無しがお送りします

    Geminiが画面いじって注文や配車してくれるらしいぜ https://9to5google.com

  • 10:名無しのA

    いらねーわ

  • 18:以下、名無しがお送りします

    >>10 グーグル気にしてねーよな

  • 28:名無しのA

    >>18 お、俺のredditコメントで数十億企業の判断変わると思ったのに… グーグル擁護サンキューな、助かったわ

  • 31:名無しのE

    俺は指ちょいちょい動かすだけでやってたわ これ必要だわ

  • 35:名無しのB

    >>31 どんなアップデート欲しいん?

  • 38:以下、名無しがお送りします

    >>35 iOSのApp Intentsみたいに、UIを人真似で操作するんじゃなく公式の呼び出しで機能叩けるようにしてほしい Uber呼べって言ったらUIベタベタやるんじゃなくてUberのインテント叩けよって話

  • 46:名無しのB

    >>38 あーなるほど

  • 54:名無しのC

    >>38 いいけど制限かかってて使いにくくね? キャンセルボタン探せとか、メニューのスクショ送れって頼んだら「承認されたボタンしか押せません」で終わりそう ビジョンモデルで直接操作できりゃどんなアプリでも何でもできるのに スマホで動く軽いモデルでも可能だし制限する必要ねーだろ

  • 59:名無しのD

    >>54 制限なし賛成って話を聞いてないの?

  • 64:名無しのC

    >>59 いいね、その洞察力 で、どんだけMLプロジェクトやったの?

  • 65:名無しのD

    >>64 ねーよ でもMLやる人のDevOpsやってた セキュリティちゃんと設定するとかその辺は分かる App Intentsはサードパーティにアプリのセキュアなアクセスを与えるためのもので、AIが財布的なアプリまで操作できるのは怖いぞ

  • 68:名無しのE

    >>54 今やボタン探すAIが必要になったのかよ? まあやってみりゃいいんじゃね

  • 78:名無しのC

    >>68 障害ある人もいるんだぞ 手が使えねー人や運転中や調理中の奴らも ちょっとは考えろよ 使いたくねーなら使わなきゃいいだけだろ

  • 84:名無しのE

    >>78 狭いケースだろって思ってたけど…分かったわ

  • 94:名無しのF

    >>31 障害者もいるんだよ

  • 101:名無しのG

    >>94 そりゃ助けになるだろ、でも常に間違うアシスタントを解き放つのかね

  • 106:名無しのF

    >>101 その標準ってどっから出てきたんだ? 寝ぼけて捏造したのかよ?

  • 116:名無しのG

    >>106 両方だろ、勾配降下法は学習時間必要だし

  • 117:以下、名無しがお送りします

    AIに勝手に金使わせたくねーわ

  • 125:以下、名無しがお送りします

    別のAndroidメーカーも似たのやってたけどアプリページ解析して進める方式で、それをローカルでやれるのがいい 注文じゃなくて判断要る自動化にほしい

  • 129:以下、名無しがお送りします

    AIはまだ本番投入には遠い GoogleのAI答がしょっちゅう間違ってる

  • 130:以下、名無しがお送りします

    >>129 長々説明するだけの時あるよな 400°Fをセルシウスで聞いたら計算手順語り出してウザい 答えだけでいいのに

  • 136:以下、名無しがお送りします

    いやだマジで 答えとアプリ開くだけでいい 注文とか勝手にやらないでくれ

  • 144:以下、名無しがお送りします

    ならねーよ

  • 153:以下、名無しがお送りします

    もちろん一番安い店選ぶよね? 金出したとこ優遇しないよね? ね?

コメント(2件)

  • 1

    勝手に注文とかマジ勘弁だわ まずは明確な承認プロンプトくれよ

  • 2

    障害者向けの配慮は必要だけど 誤操作リスク高すぎて信用できねー