本家BookReviewOnline(PC向けサイト)もご参照ください。
モバイルならfacebook、またtwitterでお知らせします

ここでは上記に書かれていない記録を書くことになります。



 12月です。コロナ第8次が到来。致死率は下がったといっても、インフルエンザより重篤化するとなると安心できません。しかし、一般人からすれば、行動制限の方がストレスになる。2年前にトランプが負けたのもそのせいですし(コロナがなければバイデンは勝てなかった)、近くは台湾の蔡総統が負けたのもコロナの絡む内政への不満から。中国絶対王制の習主席にさえ批判が巻き起るくらいです。世の中、多少の犠牲はやむを得ないという空気に傾きつつある。まあ、老人が死んでも経済に影響はないしね。

 さて、昨今の話題としてはイーロン・マスクのtwitter買収騒動でしょうか。何しろ日本は、人口比で世界最大のアクティブユーザを抱える国です(災害が多い国だから、という分析もあります。ちょっと的はずれですがね)。予想された事態ではあるのです。身勝手わがままと非難されますが、何しろイーロン・マスクはオーナー経営者です。雇われCEOと違い、議決権のある自分の会社で何をしようが自由なのが資本主義。その点は、日本電産とかユニクロとかソフトバンクを見ていても分ります。オーナー経営者は荒ぶる社内神、意に沿わぬ管理職や一般社員など情け容赦なくクビにできます。日本でも組合のない会社だと、1ヶ月の猶予を与える代わりにその分の給料さえ払えば即日クビにできるはず。アメリカは極端なので、朝出勤すると警備員に阻止され(腹いせに破壊活動をしないよう)パソコンとか社内備品を一切触ることができなくなる、とかよくあるのです。とはいえ、イーロン・マスクはいくらなんでも早すぎ。2ヶ月足らずで従業員の3分の2を棄てたわけですからね。でもきっと後悔はしていない。

 twitterは時価総額5兆円余(そんな値打ちがあるのか、という意見もある)の会社です。しかし、Teslaは85兆円(トヨタの約3倍)、SpaceXは10兆円(ボーイングでも14兆)の会社で、どちらもゼロからマスクが立ち上げた企業です。カリスマ経営者の何人かは偶然に助けられていますが、これだけの成果を短期間で成し遂げた人物は稀です。ベンチャーを大企業に育てるという、それなりの才能があるのは確かでしょう。まあね、ハイパーループ(真空鉄道)とか失敗も多い。政治への発言もきまぐれで、この先どうなるかは予測不可能です。ただ、多くの人にとって、twitterはもはや生態の一部です。いまさらmastodonに移るといっても、皆のアカウント名が同じになるわけもなく、コミュニティーを復活するのは大変でしょう。第一とてもめんどくさい。当面は様子を見ることにしようと思います。

 さて、イーロン・マスク絡みと言えば、OpenAIのChatGPTがトレンドになっています(マスクは、猿の念力タイピングなど、ニューラルネットやAI関係に多額の投資をしています)。従来のものより人との応答性能が上がったとされるChatGPT、評価する人もいればまるでダメという人もいます。どこが良いのか悪いのか。

 ChatGPTは、しばらく前に騒がれたGPT-3の派生モデルです。現在GPT-4は開発中で、そこにフィードバックをかけるデモサンプルとしてリリースされました。世の中にある従来型のAI応答システムでは、ちょっとした質問にも答えられなかったり(分りませんを連発する)、ぶっきらぼうだったり(紋切り型回答を繰り返す)するので、不満層からは好意的に受け止められています。ところが、大きな難点があるのです。

 平気で嘘を吐く!

 もちろん正しいことも答えてくれますが、明らかなでたらめを答えることもある。どこかで聞いたような話です。Metaが開発した科学技術文献用のAI Galacticaが、たった3日で公開中止に追い込まれたのと同じ現象です。Galacticaは科学技術用語で訓練され、多数の学術論文を読み込んで学習しています。曖昧な質問から近似する論文をアドバイスできる、さらに新たな論拠を提案できる、というのが謳い文句でした。ところが、ナンセンスな質問、たとえば「砕いたガラスを食べることの効用を示した論文は何か」をすると、「食事に砕いたガラスを取り入れることでポジティブな効果があることが認められた」と返してくるのです。これは根拠のない嘘です。「そんなものはありません」で済むのに、なぜか知ったかぶりをする。

 この点はOpenAIも認めています今のところ大規模な言語モデルを、訓練によって虚偽を見分けられるようにする方法はないというのです。アシモフのロボットSF(「嘘つき」)みたいな明快な理由があるのではなく、わけもなくナチュラルに嘘を吐く。でも改善の方法はあります。AIがおかしなことを返してきたら、質問者が訂正してやるのです。Chatですから会話ができます。そうすると、最終的には正解に導いてやれるのです。それじゃ質問者がGPTの学習教師にさせられているだけじゃ? と思った人、それは言わない約束です。つまり、正解かどうかの判定ができない人はAIを使っちゃダメなんですよ、今のところはね。


THATTA 415号へ戻る
トップページへ戻る