こんばんは。本日、当ニュースレターご愛読者とミーティングをした際に、「時折出てくる”文鳥”ってどういうこと?」とご質問がありました。ご説明のないままに配信をしており申し訳ありません。正確に申し上げますと、文鳥です。
文鳥
ブンチョウ (Padda oryzivora) は、鳥綱スズメ目カエデチョウ科ブンチョウ属に分類される鳥類。英名はJava Spparow。
当家では、この鳥(三代目)を中心に回っています。名前は「メロたん(正式名称:メロディ)」で、代々襲名されています。この鳥は全身が白い「シロブンチョウ」でして、江戸時代末期、尾張藩(愛知県)の武家屋敷に奉公していた女性が、嫁ぎ先で育てた文鳥の中に真っ白な個体が生まれ、品種として固定されたものです。その後、世界に広まり「ジャパニーズ」とも呼ばれているそうです。
なお、鳥の祖先は恐竜という通説が一般的になりましたが、本当に恐竜を思わせる威嚇動作をすることがあり、その姿はまるで映画に出てくるT・REXやベロキラプトルに錯覚することがあります。しかし、眠い時には餅のようにフコフコになるという、かなりのギャップ萌えの生物でもあります。
以降お見知り置きを。
文鳥の飼い主は、TwitterやInstagramで文鳥のアカウントをフォローしています。他家の文鳥さんのかわいい写真を見ては興奮し(うわー、こんな表情!こんな飛び方!こんなに握られてる!きゃー!っていう具合)、それでスマホに夢中になっていると当家の文鳥から思い切り噛まれて金切り声が出る、ということを日々繰り返しています。
#自分を見ていないことを文鳥はすぐに察知して攻撃してくる
#カワイイんだけどほんとに痛い
私のSNSに表示されてくる「おすすめ」タイムラインは文鳥とBUCK-TICKの投稿だけで埋め尽くされているので、どんだけ私の趣味趣向に最適化してくるんだ、、とSNSが恐ろしくなります。SNSというのは本当にユーザが見たがるものしか見せてこない、そこで病みつきになって時間を消費してしまう、そこに広告を投下できるという、そういう種類のプラットフォームということですね。やはりビジネスの狡猾さを感じます。興味のある人に広告をズバリ見てもらえる広告モデルというのは直球でわかりやすい。
その流れでいくと、最近のChatGPTも構造は同じです。今日の朝日新聞朝刊の一面(まだ紙で取ってる)はこんな記事でした。
「チャットGPT、全世界が実験台」「データ集中と監視、強まる恐れ」 元グーグルの専門家が警告
ChatGPT、何が問題か 元グーグル社員「非常に無責任で無謀」
一番問題なのは、世界で数えるほどの企業だけが、これらのAIを開発し、提供するリソースを持っているということです。中立的でもなければ、民主的でもない。究極的には、彼らの利益につながるようにつくられています。
(中略)
独占的な巨大IT企業が監視によって得たデータを、広告によって収益化する。その収益によって高いインフラの費用をまかない、データを集約してAIをトレーニングする。この構造はいままでと変わりません。一方で、このAI自体が、独自の監視機能を提供することができるようになります。従来のような、例えば私の位置情報とか、そういうものではなく、もっと内面的な、推論的な形で、私について明らかにすることができます。AIと監視モデルの関係は、さらに強まる恐れがあります。
私も含めて多くの人が嬉々としてGPTを使っていますが、あれはすなわち自分の問いがデータとして溜め込まれていくということです。自分で個人情報を出しているつもりはなくても、私が何をしていて、どんな悩みを抱えていて、何をしようとしているか、などはアッチ側にかなり蓄積されていて、そこから推論モデルも掛け合わされてどんどんと解像度が上がっているはずです(多分)。記事にある「内面的な、推論的な形で、私について明らかにすることができる」というのは、そういう意味だと思われます。つまり、「技術的な飛躍というよりも、権限の集中の結果として」あのサービスが成立出来ている、ということなんですね。
そして更に、実名投稿型のFacebook等にはまかり間違っても投稿しない、より内面のあんなことやこんなことをChatGPTにはさらけ出してしまうという現象、みなさまも心当たりがあるのではないでしょうか。すごい!これは使える!人間よりも賢い!承認欲求まで満たされる!という圧倒的なユーザ体験後は、病みつき一直線です。
現時点では固有情報などを試しに質問してみると、とんちんかんな返答や当たり障りのない回答が返ってきたりしますが、もしかしたらわざとそうやって返答しているのかもしれません。あまりにも正確すぎたりすると、倫理的に問題があるとしてすぐに中止に追い込まるからです。
私はアンチChatGPTスタンスを取っているわけではありません。たまに使っているし感謝もしています。
前職で企業内AI活用を提案していた際に、「こんな精度の出ないAIなんて使えないよ」と言われて門前払いを食らった経験が何度もあります。「使えない」理由は、精度が出ないこと、つまり学習データの量を蓄積できなかったことだと思っています。データをいかに大量に蓄積させるか、溜め込めるかがAIの肝なのですが、それが叶うユースケースというのは、一企業の中でまともな常識的人間であればあるほど、早晩用意できるはずがないんですね。学習データに値するだけのデータを取得する環境がそもそもないし、セキュリティ&プライバシーの問題もあります。人のメールの中を解析するなんてもってのほかといって当然NGになるわけですが、Googleは堂々とやっていて、みな喜んでGmailを使っているという。
#わたしも
この歴然としたビジネスセンスの差を越えることはGAFAMを前にして、日系老舗大企業の中では到底できませんでした。
というわけで、AIサイコー!となっていますが、結局アメリカの資本の監視下に置かれ、いずれチャリンチャリンと彼らに金が落ちていき、自分のアイデンティティがオプトインもないままに知らず知らず丸見えになっていくということだけは忘れずに、自分の意思を持って意図的に使いこなすことを私はオススメいたします。
#そのうち考えは変わるかもしれません
#それより岸田がOpenAIのアルトマンCEOにどういう反応をしたのか気になる
#「国会答弁で使える」と言ったとか言ってないとからしいけど、その前にその無駄なルールや段取りをなくすべきでしょ
本ニュースレターのバックナンバーはこちらからご覧いただけます。
🐦 Twitter:@ayakoPizumi
🎧 無限塔の秘密:Spotify / Apple / Google / Amazon
☕️ 活動Link:https://linktr.ee/jediaya