すべての夢のたび。

1日1記事ぐらいな感じでいきたい雑記ブログ

殺人AI


これはよくわからないな。これ「も」、か。世の中よくわからないことだらけです。そしてこれはぼくの感覚と逆ですね。

FLIは軍事システムにおけるAIの役割がますます重要性を増す中で、市民、政策立案者、国の指導者などが、AIの活用を「許容できる分野」と「許容できない分野」で線引きする緊急の必要性があると考えています。具体的には、人を殺傷する兵器が「人間の介入なしで」マシンの自律的な判断によって人を殺すということは許されるべきではなく、このような自律的殺傷兵器は核兵器や生物化学兵器などと同じく、使用だけでなく開発自体を規制すべきものであり、AI技術者はこのような兵器開発にAIを利用するべきではないと考えています。


なんで「マシンの自律的な判断によって人を殺す」ということが許されるべきではないのかの理由がどうもはっきりしません。例えばAIを搭載して、市民、子供は絶対に殺さない、兵士だけを殺すBoston Dynamicsの4足ロボットにマシンガンを搭載したようなやつができたら、今よりよくないですか? まずこちらの兵士は死なない。相手方の無関係な人間も死なない。敵の兵士だけを効率的に殺せるのです。敵の兵士は殺していいのか? いいに決まってるでしょ戦争だよ? それがダメだってんなら戦争をやめたらいいんじゃね……。

それか、もう双方ともAI搭載ロボ同士で戦わせればいいんじゃないですかね。ロボが減ってきて戦いを継続できなくなったら降伏したらどうですか。

どうも、なんとなくですけど、なんか裏の目的があるような感じを受けるんですよね。良く言えば、AIという技術にマイナスのイメージが付くのを避けようとしているのでは。悪く言えば、「お前らAI研究者が殺したんだろ!」って名指しされるのを避けようとしているのでは?

しかし、技術の進歩に制約を設けるというのは、ぼくには悪手に感じられます。ていうかすでに無人機とか飛びまくってるのに今更じゃないですか? あれにAI技術が使われていないとでも? 最後の引き金だけは人が引くならあとはOKってことなのかな?