1: 泥ン ★ 2018/01/05(金) 02:23:37.35 ID:CAP_USER9
no title


機械も偏見も、元をたどれば人間が作ったもの。

AIがどんなに早く進化し、どれほど私たちの生活に馴染もうと、開発者である人間の現実社会にある差別や偏見を乗り越えることはできない…。そう説くのは、Microsoft研究者でAIの社会的影響を研究する機関AI Nowの共同創設者、Kate Crawford(ケイト・クロフォード)氏。

先日行なわれた機械学習の国際会議NIPS(Neural Information Processing System Conference)で、アルゴリズムの偏見がもたらす多様な問題をテーマにした基調講演で登壇した彼女のスピーチが反響を呼んでいます。一体どんな内容だったのでしょうか。

「偏見」は機械学習において数学的に定義づけられており、サンプリング時に推定との誤差や特定の人々を過剰/過小評価している点から反映されています。あまり議論されてきませんでしたが、特定の人々に対する機械学習の偏見、差別的効果(disparate impact)は多様な問題をはらんでいます。彼女はこうした危険性を配分型(allocative harm)と象徴型(representational harm)の2種類に分類しました。

Kate Crawford: The Trouble with Bias (NIPS 2017 keynote)
https://www.youtube.com/watch?v=ggzWIipKraM



「配分型の危険とは、システムがある機会やリソースを特定の人たちに対して不公平に扱うこと」だと彼女は指摘しています。

たとえば、AIがなんらかの判断する(住宅ローンの申し込みなど)とき、誤差でもわざとでも特定のグループを拒否したとします。彼女は銀行のAIが「女性に限って申し込みを断る」といった例をあげたほか、危険度を測るAIが黒人犯罪者を白人犯罪者よりもリスクが高いと判断してしまう例まで…。この決定により、黒人の犯罪者はより多く未決勾留を言い渡されたというのです。

また、象徴型の危険については「システムがアイデンティティの文脈で特定の集団の劣位を強めるときに起きる」と彼女は語りました。テクノロジーがステレオタイプを強化したり、特定の人々をないがしろにしたりするときに発生するというのです。また、この種の問題はリソース関係なく起こります。具体的には、Google Photoが黒人を「ゴリラ」と ラベリング(人間を動物と比べるなど)したり、AIが東アジア地域の人々の笑顔をまばたきと検知したりするなどが分類されます。

jews should(ユダヤ人は〜〜すべき)で検索するときの予測変換。排除する/国家を持つべきではない、など。
https://assets.media-platform.com/gizmodo/dist/images/2017/12/13/171213TheTroubleWithBias.jpg

Crawford氏はLaTanya Sweeney氏による2013年の論文を引用しながら、これらふたつの複雑な危険性をひもづけました。Sweeney氏の論文では「黒人系とされる名前をGoogle検索すると犯罪歴の調査の広告が表示される」という検索結果に隠れたアルゴリズムパターンについて指摘されています。犯罪と黒人を結びつける象徴型の危険は、配分型の危険にも現れるんです。もしも雇用者が志願者の名前を検索して犯罪者と関連する結果が出てしまえば、その従業員を差別する可能性だって生まれてしまうかもしれません。Crawford氏は以下のように考えています。

“黒人と犯罪に対するステレオタイプが続くことは、雇用以外の場面でも大きな問題になります。

これらの偏見は、社会全体として黒人がこのように特徴づけられ、理解される問題を生みだします。私たちは、単純に意思決定に影響する機械学習のみについて考えるのでなく、たとえば雇用や刑事司法など、偏ったアイデンティティを表現する機械学習の役割についても考える必要があります”

サーチエンジンの検索結果とオンライン広告のどちらも、私たちを取り巻く社会を表し、影響を及ぼしています。オンラインで表明されたことは、オンラインだけにとどまるのではありません。現実的に、経済の成りゆきにも影響しているとSweeney氏は指摘してします。もっといえば、こうしたことは何もオンラインから始まったことではありません。犯罪や非人間性にまとわりつくステレオタイプは数世紀も前から現実社会であったことなのです。

Crawford氏のスピーチではその後も象徴型の危険のあらゆる形について詳しく述べられています。 配分型の危険との関連性のほか、最も興味深いのはそうした影響をどのように防ぐのかについても語っていること。よく言われるのは、問題となる単語から連想されるイメージとの結びつきを解くか、あるいは問題となるデータを取り除くか、いずれかの方法でしょう。

続きはソース
https://www.gizmodo.jp/2018/01/ai-reflect-prejudice-and-why.html

引用:http://ai.2ch.sc/test/read.cgi/newsplus/1515086617/-100
50: 名無しさん@1周年 2018/01/05(金) 04:28:42.53 ID:qRplR1C30
>>1犯罪率なら男のがやばくね

61: 名無しさん@1周年 2018/01/05(金) 05:56:42.76 ID:yRajZZND0
>>1
機械学習させるデータを取捨選択したら、取捨選択をした人間の偏見を反映したAIになるなw

2: 名無しさん@1周年 2018/01/05(金) 02:28:21.36 ID:efDwMrXD0
都合が悪いことも差別や偏見と言えば許されてしまうこのご時世

3: 名無しさん@1周年 2018/01/05(金) 02:28:38.69 ID:84iLqrAW0
貧乏人を弾く

4: 名無しさん@1周年 2018/01/05(金) 02:30:05.25 ID:Ts/I4DRK0
する側は区別、される側は差別
ずっと平行線だわ

6: 名無しさん@1周年 2018/01/05(金) 02:30:37.98 ID:qQVUL2LZ0
AIがデータ重視のドライな判断したらしたで差別と言われる。

7: 名無しさん@1周年 2018/01/05(金) 02:32:01.79 ID:TfPPtz360
人間がバランスとってるだけだろ

11: 名無しさん@1周年 2018/01/05(金) 02:42:51.34 ID:Q84DV8z/0
AIにだってチェンジする権利はある

12: 名無しさん@1周年 2018/01/05(金) 02:43:21.50 ID:v9Ry8qTf0
都合が悪いことは全部差別のせい

18: 名無しさん@1周年 2018/01/05(金) 02:54:00.03 ID:NMdb92yz0
最近なんでただのプログラムの事をAIっていうの?

22: 名無しさん@1周年 2018/01/05(金) 02:54:53.79 ID:vkQvX+bQ0
気になるなら銀行融資の際の判断情報に性別を除外すればいいだけ

23: 名無しさん@1周年 2018/01/05(金) 02:55:45.54 ID:mwgdIL6t0
AI関係ないだろ
統計の結果なだけ

26: 名無しさん@1周年 2018/01/05(金) 02:57:21.92 ID:iHsF2FoV0
純粋にデータだけ見るのは偏見w

27: 名無しさん@1周年 2018/01/05(金) 02:59:55.02 ID:q7Gb+ox/0
差別や偏見無しに判断したら差別だ!偏見だ!と非難された件

30: 名無しさん@1周年 2018/01/05(金) 03:07:47.19 ID:qVZCFdIq0
人種や性別によって収入に違いがあると判断されれば当然そういう可能性はあるわけで
それは差別や偏見ではなく公平な区別だと判断すべき

44: 名無しさん@1周年 2018/01/05(金) 04:04:00.14 ID:WG5HTIte0
統計的事実が差別と言われてしまう


政治ランキング