|
◇ ・「アメリカはイランへの空爆にさいしてAnthropicのClaudeを組み込んだパランティアのMavenを使用。179種のデータソースから標的を自動生成(攻撃開始から24時間で1000目標)し、優先付け。米イスラエルの狂気じみた傲慢さの背景にはAIの〈異能〉があることはまちがいありません。」 “ A rather scary read... and a repeat of what we saw in Gaza. "As planning for a potential strike in Iran was underway, Maven, powered by Claude, suggested hundreds of targets, issued precise location coordinates, and prioritized those targets according to importance, said two of the people. The pairing of Maven and Claude has created a tool that is speeding the pace of the campaign, reducing Iran’s ability to counterstrike and turning weeks-long battle planning into real-time operations, said one of the people. The AI tools also evaluate a strike after it is initiated, the person said." https://x.com/kimghattas/status/2029463124202422399?s=61 ◇Geminiの回答 ・https://x.com/i/trending/2028433102964748707 Anthropic社(Claudeを作っている会社)がなぜそこまで戦争利用を嫌がっているのか、そして他の会社がなぜ協力しているのか。 その裏側には、**「AIの安全を守るためのこだわり」と「国の平和を守るための考え方」**という、2つの正義のぶつかり合いがあります。 1. Anthropic社が「NO」と言う2つの大きな理由 Anthropic社には、どうしても譲れない**「レッドライン(越えてはいけない一線)」**があります。 • 理由①:AIが「勝手に判断して人を傷つける」のを防ぎたい いまのAIはとても賢いですが、時々「ハルシネーション(もっともらしい嘘)」をつくことがあります。そんなAIが、人間の確認なしに「誰を攻撃するか」を勝手に決める兵器(ロボット兵器)に使われると、間違えて罪のない人を傷つけてしまうかもしれません。彼らは「命に関わる決定に、不完全なAIをそのまま使ってはならない」と考えています。 • 理由②:自由な暮らしを守りたい(国民の監視に使わせない) AIを使うと、街中のカメラやネットの情報を一瞬で分析して、すべての人を24時間監視することができてしまいます。Anthropic社は「自分たちの技術が、自由を奪うための道具に使われること」を非常に恐れています。 彼らは**「Constitutional AI(憲法を持つAI)」**という仕組みを作っており、AI自身に「人権を守る」「害を与えない」というルール(憲法)を叩き込んでいます。軍の要求を飲むことは、その「AIの心」を壊すことになると考えているのです。 2. 他の会社(OpenAIやGoogleなど)が協力する理由 一方で、他の会社が協力しているのは、決して「悪いことをしたい」からではありません。彼らには別の「正義」や「理由」があります。 • 理由①:自分の国の技術を強くするため(国防の義務) 「もしアメリカがAIを使わなくても、敵対する国がAI兵器を使ったら、自分たちの国や兵士が危なくなる」という考え方です。国の守りを強くするために、最先端の技術を提供するのは国民としての責任だ、と考えている面があります。 • 理由②:AIを「正しい方向」で使ってもらうため 軍隊がAIを使うのを完全に止めるのは難しいのが現実です。それなら、技術に詳しい自分たちが協力して、「ルールに基づいた正しい使い方(法律を守る範囲での利用)」をサポートした方が、結果として安全につながるという考えです。 • 理由③:ビジネス(お金と成長)のため 軍隊との契約は非常に大きなお金が動きます。そのお金を使ってさらに良いAIを開発し、世の中を便利にしたいというビジネス上の目的もあります。 3. 結局、何が問題なの? いま起きているのは、「AIは道具なのだから、国(軍)が法律の範囲で自由に使うべきだ」という政府・軍の意見と、「AIは危険な面もあるから、作った人が決めた安全ルールを絶対に守るべきだ」という開発会社の意見の衝突です。 |