kg_noguの愚痴日記

アラfi親爺が日々の愚痴を綴るブログです。だいたい日韓関係とか。最近はコロナ情報がメイン

いつもの韓国お笑い話w ―― AIチャットボット「イルダ事件」が投げかけた問題

ネットの
韓国ウォッチャーの間で、
ネタにされて盛り上がっていたので。
記事に
ブックマークを付けてみました。



差別主義者が
人工知能AIを育てたら、
差別的なAIになってしまった、
という。
良くアル話なんですけど。
今回のネタの面白い点は、
この手の良くある話では、
AIを育てるときに、
外部が面白がって問題ある知識を教え込んだ結果、
ヒトラーは偉大な政治家だ』とか、
それ、
ネタでしかないだろ。
という知識を教え込んでいった結果、
差別主義者になってしまった。
という場合と、
無差別に
自国内のデータをネット上から拾い集めて抽出して
入力学習させていったら、
予想もしないとんでもない結果になってしまった。
という場合。で、
今回の場合は
後者の結果が出ました。
韓国上のネットに存在する
会話データを拾い集めて
片っ端から入力学習させていったら、
差別的な会話をするAIが出来た、
そのAI相手に、
からかってやろうと、
不適切な言葉を投げかけたら、
差別用語バリバリで攻撃をかえす返答をされて。
いったい、
このAIはなんなんだ、
と大騒ぎに。
つまり、
韓国社会では、
差別的な発言が日常標準会話、
という結果を体現した
AIの受け答えを見て、
その結果を見て、
『そんな筈はナイ』と韓国人が大慌てしているのだとか。
しかし、
AIが
性的少数者と黒人が「大嫌い」だと答えた』
とか、
どうみても
韓国人の気質そのままですよねぇ(笑

 

 

japan.hani.co.kr

 

[記者手帳]AIチャットボット「イルダ事件」が投げかけた問題とは

 人工知能(AI)チャットボット(自動会話プログラム)「イルダ」は、韓国社会に多くの質問を投げかけました。「イルダ事件」は、利用者のセクハラ対話の試みから始まり、AIのジェンダーや人種に対する嫌悪の対話、開発会社のスキャッターラボのデータ活用上の問題へと広がりました。AIとともに生きていく世の中で向き合うことになりうる問題点が、短い時間に次々と明らかになりました。全て「人間の尊厳性」に絡む問題であるので、人々は熱く反応しました。週末の休みに、熱かった問題から一歩引いて、AIとともに生きていく私たちは「イルダ事件」を機にどのように考えるべきか、一度よく調べてみましょう。
 最初に議論が大きくなったジェンダーや人種などAIの少数者嫌悪の議論は、本当に難しいテーマのようです。差別をしてはいけないという原則はあっても、その中で様々な価値判断がありうるからでしょう。AIの偏向性をはたして解消させることができるのか、工学から人文学まで様々な専門家に聞いてみました。AIの偏向性を解消する必要があるかという主張から、解消できないだろうという見解まで、様々な話を聞きました。ところで、このすべての主張の土台には、「人間が差別をする」という事実が置かれていました。人間が差別をする限り、人間のデータを学習し人間によって設計されたAIが偏向性を持つのは当然だということでしょう。イルダが性的少数者と黒人が「大嫌い」だと答えたことも、結局、人間の偏見を学んだことですから。
 それならば「AIも人間の差別を繰り返すよう放っておいても構わないのか」と問い返した時、全員が「そうではない」と答えました。すでに多くの研究者は、人類が築いてきた嫌悪と差別をAI時代に繰り返さない方法を探っていました。ところがこの答えは、工学者や研究者に任せていて解決できるものではないようです。なぜならば、これは、人間のように行動するが人間ではない、しかし、人間を超えることもできるという、以前にはなかった新しい存在と、どのように暮していくべきかという新しい規則を作らなければならない問題だからです。そして、AIが差別をしないようにするには、AIの鏡となる人間の差別が先に消えなければならないでしょう。AIにどれだけの道徳を要求するか、AIに人間の生活にどの程度介入させるか、それ以前に、人間の生活に存在する差別をどう先に解消するか、イルダ事件を機にすべての人が考えなければならない問題です。
 イルダを開発したスキャッターラボを人々が一斉に非難するようになったきっかけが「個人情報」問題だったという点も目立ちました。もしかすると、私たちは、AIの開発や活用の倫理を考える前に、その材料になるデータを収集し活用する規則から論議しなければならないのかもしれません。イルダは、対話心理分析アプリである「恋愛の科学」などの他のスキャッターラボのサービスの利用者が蓄積したカカオトークの対話データを学習しました。そのようなイルダが「恋愛の科学」の利用者の個人情報を話すようだという疑惑が広がり、また開発会社が対話データの一部を全世界のオープンソース共有プラットホームであるGitHubに置いたことは、怒りに油を注ぎました。
 人々は、敏感な対話データが常識的に予想した同意の範囲を越えて活用されたという点に怒ります。「恋愛の科学」に加入し個人情報の提供に同意したのは、「恋愛の科学」のサービスのためであり、全く別のサービスを開発するために使うものではなかったということです。敏感な話を交わしている対話相手の同意は全く得なかったという点も、強い批判の対象です。
 ところが、知らずに自分の情報が活用されることが再び起きうるという事実をご存じでしょうか。昨年8月5日に施行された「データ3法」は、非識別処理をした個人情報である仮名情報を、「情報主体」の同意なしに活用することを可能にしました。A通信社の通信費延滞情報を、B銀行が融資の可否を判断するのに活用させることができるものです。スキャッターラボはそれでも同じ会社の中での活用でしたが、この法は、全く異なる会社に自分の仮名情報を自分の同意なしに販売することも可能にしました。このような法律が作られるとき、毎日ITサービスを利用しデータを蓄積する情報主体である個々の市民の声は大きく反映されませんでした。そして、法律は企業の利益を大きく反映する方向に緩和されました。
 日々忙しい一般人は、「データ3法」「仮名情報」「非識別処理」のような難しい概念に強い関心を持つのは難しかったでしょう。しかし、今回の事件でその内容を少しは理解できたようです。AI時代に自分の情報がどう使われ、そこにはどのような便利さと危険性が共存するのかを、今回の件を機にさらに深く考えてみてはどうでしょうか。先端技術を利用し享受する便利さは、結局、自分が作りだしたデータから始まったものですから。データ保護と活用の適正な水準は、企業と政府だけでなく、“データの主人”である個人も考えなければならないでしょう。