主要AI企業によるAIの理解能力喪失への警告
OpenAI、Google DeepMind、Meta、Anthropicの研究者たちが共同で発表した、AIの思考過程の透明性が失われる危険性についての重要な警告が発信されました。無能な人間のリスクを常に懸念していた私としては、「賢すぎるAIのリスク」は興味深く印象的でした。私なりの解説をしてみました。(Researchers from OpenAI, Google DeepMind, Meta, and Anthropic jointly issued an important warning about the risk of losing transparency in AI's thinking processes. As someone who has always been concerned about the risks of incompetent humans, I found the "risks of overly intelligent AI" fascinating and memorable. Here's my personal take on this development.) VentureBeatで「OpenAI, Google DeepMind and Anthropic sound alarm: 'We may be losing the ability to understand AI'」1という記事を見つけました。 内容は、OpenAI、Google DeepMind、Meta、Anthropicの40人以上の研究者が共同 で今後AIの思考を監視できなくなる可能性があるという重要な警告を発表したとい うものです 。 現在のAIシステムは「思考の連鎖(Chain of Thought)」と呼ばれる人間が読める 言語での段階的推論過程を示すため、その思考を監視できます。しかし、この能力を 失う危険性が高まっているというのです。 通常は競合関係にある企業が団結してこの 問題に取り組んでいます。これは業界全体でこの安全性問題を深刻に受け止めている ことを示しています。AIの透明性確保は今後の重要課題となってくると思いました 。 現在のAIシステム(OpenAIのo1など)は複雑なタスクで「思考の連鎖(Chain of Thought)」を作業記憶として使用する必要があり、その推論過程が人間の観察者に部分的に見える状態です。これにより安全性監視が可能でした。 しかし、これが出来なくなるリスクも出てきています。その理由は次の通りです。 これだけの企業が名を連ねているので、どこぞの国の団体のように警鐘を鳴らすだけでなく、以下のようなアクションを提言しています。 日本はAIに関しては超後進国なので、この記事については「なんのことやら分からない」という企業が多いでしょう。 AIに関して無能で弛みきった日本と違い激烈な競合関係にあるこれらの企業が共同声明を出し業界全体の行動変化を求めているというのは、 マジで今からやらないと将来のAI安全性監視手段を失うという危機感の表れでしょう。 裏を返すと、それだけ人類と知性で肩を並べるAGI(汎用人工知能)や人類を超える知性であるASI(超人工知能)が、現実のものとして見えてきたということでしょう。 無能な人間と賢すぎるAIとどちらが危険か、私個人はそのリスクについてどっこいどっこいだと最近思い始めていたので、この記事は興味深く印象に残りました。 元記事は削除または移動された可能性があります ↩主要AI企業による警告
どういうことなのか
具体的な警告の内容
まとめ