Googleが方針を変えた背景
Googleは以前、「AIを兵器や監視技術に利用しない」と誓っていましたが、2025年2月初旬にその文言を公式サイトから削除しました。代わりに「国際法や人権を尊重する」という表現が残されているものの、具体的な制限は緩和された形です。地政学的な緊張の中で、AI開発をリードしたいという意図がうかがえます。
社内外の反応
一部の社員からは「Googleが兵器開発に関与するのか」という懸念の声が上がっています。しかし、防衛分野へのAI活用を容認する意見もあり、社内でも意見は割れているようです。メディアや専門家の間では「倫理的な後退ではないか」という批判が強まっており、Googleの企業理念「Don’t Be Evil」からの乖離を指摘する声もあります。
AIが軍事に使われるリスク
AIによる自動的な標的認識や攻撃は、ミスが起きたときに民間人を巻き込む危険があります。また、AIの判断が「ブラックボックス」化しやすいため、誤作動があっても原因を追求しにくいです。さらに、各国が軍事AIの開発競争を続けると、誤解や誤作動がきっかけで意図しない衝突が起こるリスクも無視できません。
今後の行方
Googleのような大企業がAIの軍事利用に積極的になると、他の企業や国々も追随し、軍拡競争が一層激化する恐れがあります。一方で、国際法や人権を守るためのルール作りはまだ道半ばです。技術の進歩と倫理のバランスをどう取るかは、これからの社会にとって大きな課題になりそうです。結局のところ、私たち一人ひとりがこの変化に目を向け、賢く議論に参加することが求められています。