予測モデルが正確に機能するためには、多くの関連データを伴った明白な、曖昧さのない測定基準が必要である。しかし、そうなると、予測モデルは手に入る材料を利用するしかなくなる。「私たちは完璧な結果変数を持っていないわ」とエリン・ダルトンは言った。「被害を直接表す完璧なプロキシは存在しないと私たちは判断しているの」。
[p.187]
- AIやビッグデータ技術が失業を増やすのか、格差を拡大させるのかといったテーマは多く見られるようになりましたが、本書は貧困者を選別して管理するという思想がどう展開してきたかを、19世紀の救貧院の歴史的流れに位置づけていることで、議論に非常に深みが増しています。
- 救貧院は劣悪な環境であった一方で、人種の壁を超えた階級的な連帯を作り出したという部分は勉強になりました。他方でデジタル上の救貧院では、専門職を持つ中流階級が貧困層に対して共感や連帯を形成しづらいことが主張されています。
- 4章の内容は虐待被害を事例として、アルゴリズムによる福祉政策の対象者の予測の難しさを鮮明に明らかにしていると思いました。虐待による死亡事例は統計的に意味のあるモデルを構築するには数が少なく、ケースワーカが記録した事例の測定にかなりの曖昧さが含まれるということでした。
- 本書ではそこまで関連させて論じられていなかったと思いますが、一見して普遍的かつ中立的に見える制度が、むしろ非効率的であったり、特定の人々を差別的に扱ったりするという意味では、官僚制の文脈でも重要と言えるでしょうか。自動化された技術によって、福祉プログラムを一方的に停止された人々の徒労感と無力感が描き出されている箇所は、官僚制の非人間的な側面の事例としても理解できそうです。