「悪いやつをAIで予測する」のがなぜいけないか
いやーこれはまずい。この件に限らず、「悪いやつをAIで予測する」というのはすなわち
「あなたに似た人が悪いことをしたので、あなたも悪い人と見なします」
ということだからだ。
レストランのランプ
たとえばこんな例を考えてみよう。ある街でレストランが強盗に襲われる事件が相次いだ。これを防ぐため、レストランの入口に防犯カメラを設置することにした。このカメラはAIで犯罪者の顔を学習していて、「犯罪を犯しそう」な人間を検知してくれるのだ。
もちろん検知するといってもサイレンが鳴ったりするわけじゃない。あくまで「犯しそう」なだけで、まだ犯罪を犯したわけではないからね。でもキッチンに置いてある赤いランプがピカピカ光って、「要注意人物」が来たことはわかるようになっている。ああこれで安心だ。
…さて、これは本当に素晴らしいシステムだろうか?残念ながらそうではない。例えばその街では人種によって貧富の差があり、犯罪を犯すのは貧しい黒人が多いとする。すると、ランプは黒人だというだけで点滅するようになる。
ランプの普及した社会
え、別に逮捕されるわけじゃないし、ランプが点くくらいいいじゃないかって?そうだろうか。このシステムがどんどん普及したら、次にターゲットになるのはあなたかもしれない。
ある日レストランに行くと、店員の態度がなんとなく冷たいように感じられる。ウェイターもなぜか緊張した顔でこっちを見ている。気のせいだろうか?いや、そういえば昨日のコンビニもなんか変だったような…。
店員の気持ちになって考えてみよう。ランプが点くだけといっても、「この人は犯罪者に似ているから気をつけて!」と言われて普段と同じように接客できるだろうか?どうしても緊張が態度に出てしまうだろう。
あなたが何も悪いことをしてないとしても、AIによって「悪いやつに似ている」と判断されたら犯罪者予備軍という色眼鏡で見られることになる。「悪いやつをAIで予測する」社会はこういう危険をはらんでいる。
人間を属性で決めつけてはいけない
差別とは、人間を「その人」ではなく"属性"で判断することだ。"黒人"だから、"日本人"だから、"男性"だから、"女性"だから、"背が高いから/低いから"…。 "犯罪者に似ているから" 要注意人物として扱う、というのもまた端的な差別だ。
AIはたしかに便利だが、その結果を判断するのはあくまで人間だ。「AIが悪いやつだと言ってるから」を根拠にしてはならない。それは、回り回ってあなたに牙を向くかもしれないのである。