SSブログ

ディープラーニングは基地外に弱いか [ソフトウェア]

MicrosoftのAIのTwitterがヒトラーのナチズムを肯定するような状態になっていたらしい。ただ単に入力した情報が偏っていただけで、機械学習としては普通に機能していたのだろう。でも、偏った情報ばかりくるという前提を考慮に入れなかったので、マイクロソフトのバグだったと言えよう。いつものことだ。

http://japanese.engadget.com/2016/03/24/ai-tay/

問題発言をするようなキチガイの人たちは、善良な人間よりか多いのわかってないのかなぁ。仮に人数が少なかったとしても、キチガイは普段しないような話題を何度もする傾向があると思うので、今回のTayさんのように残念な差別主義者を作ってしまう現況になってしまったという事ですね。まぁ人間だって洗脳されれば誰だってロボットのような考え方しかできなくなってしまうわけですよ。

結局、ディープラーニングにしても、猫の写真を大量に覚えさせてこれは犬というものです、と設定したらもう終わりなわけですしね。そこの前提部分を破壊する、コモンセンスではない状況を設定してしまうと、どうにもならなくなるのは当然のことで、最初の状態を意図的に差し向けないとあらぬ方向へ行ってしまうのは当然のことなのでしょう。


しかし、ここで考えたのが逆にBAN食らうような人たちの言動をディープラーニングで特徴を抽出して、自動垢BAN装置を作れないかという事です。Twitterとかでも自動垢BANをしていた気はするが…。

http://maname.hatenablog.com/entry/2011/11/08/232657

垢BANはこちら。
http://www.paradisearmy.com/doujin/pasok_ban.htm

上の時は言動どうこうじゃなくて、別に問題でもない所定のプロセスを何回も繰り返して、その閾値にハマってしまったという話ですね。まぁそこのところは閾値がディープラーニングで自動垢BAN装置に任せるなりすれば、閾値が人間の理解に近いものとして自動化できるわけで、自動にBANできる仕組みを機械学習で判断させることができるわけです。

もしかするとBANする対象になってしまいますよ、とかアラートを対象者に送って、自分達のBAN対象候補のキューに入れておく、とかだったらいい運用ができそうだなと思ったり。ある程度の浅はかな人間の足切りを自動的にできるのは省力的ではあるな、と思ったり。引っかからないやつは実際の通報に応じてBANすればいいだけの話だし。


まぁ本当に考えることができる電脳ができるまでは、ある程度NGワードをブラックリストで与えておいて、それを元に傾向を抽出していくのがいいのかもしれません。何にしてもディープラーニングなど機械学習は使い物になってから間もないと言っていいでしょうから、その黎明期を越えて一般的になるまでの過渡期を見ていくことになるのでしょう。今回のもいい参考になったと思います。学習材料が大切だということでした。

コメント(0) 
共通テーマ:パソコン・インターネット

コメント 0