テクノロジーの発展とともに、さまざまな意思決定が人工知能(AI)によってなされ始めている。驚くことに、その動きは人の生死に絡むような重大な領域にまで広がりつつある。例えば、近現代の司法の場において人間を裁くのは人間だったが、米国ではニューヨーク州をはじめ複数の自治体で、裁判官の意思決定を手助けするためにAIが導入されている。

しかしながら、機械が人間の罪を裁くことなど、本当に可能なのだろうか。ここではAIのアルゴリズム(問題解決の手順)による意思決定について、「公平性」と「集計方法」という2つのキーワードに注目して考えてみる。

実際の裁判で使用されている代表的なAIのアルゴリズムに、米イクイバント社が開発した「COMPAS」がある。このアルゴリズムは、ある被告人が将来的に再び罪を犯すリスクを過去のデータから推定してスコア化するもので、実刑・執行猶予の決定に役立てられている。米国の監獄は再犯リスクの低い者から保護観察つきで外に出すことで収監を効率化し、コスト削減を図っている。

残念ながら同社はアルゴリズムの詳細を部分的にしか明らかにしていない。公開されている仕様書によると、被告のリスクスコアは犯罪歴やいくつかの質問への回答といった個別の情報を基に、機械学習でよく用いられる推定の手法によって計算されている。新しい事例の再犯リスクは、過去にあった複数の似た事例の「集計量」から計算されるのだ。