SLtec7uk

システムの脆弱性

2018年に最も多く聞かれたIT関連ワードと言ってもよいのが「AI」です。

「AI」の登場により、それまで人が行ってきた仕事の大半がなくなるといったニュースや、ややオカルトめいた「将来的に人間はAIに支配される」といったような都市伝説までも流れてきました。

人間にとって代わるほどの知能があると聞くと、やはりそれまでなかったものが登場する恐怖のようなものがあるものですが、実際にはそうした人類の脅威になるようなものではありません。
それだけAIという新技術に対しての期待が大きいということなのでしょうが、今後よりスムーズに社会生活に導入していくためには、一人ひとりが正しく理解をしていくことが大切になります。

まず将来的に改善をすることが予想されているものの、現状ではAIにもシステム的な脆弱性が存在しています。
ですのでAIを使えば人間に任せていた時のようなミスやエラーが完全になくなる、というように単純なものではありません。

AIの欠点

まず現状のAIの欠点と言えるのが、その技術が過去の事例からの統計によって判断をする、ということで成り立っているという点です。

SNSに人工知能のアカウントを作って学習するという実験が行われたことがありましたが、その結果有用な知識だけでなくノイズとなる情報を面白半分に与えたユーザーがいたことから、知能的にはかなり低い発言を繰り返すようになってしまいました。
つまり言い換えれば、もともとインプットをする情報に誤りがあった場合、AIもそれに基づいた行動をするため、必ずしも完璧な行動をとることができないということです。

また機械による認証であることから、その穴をついたハッキングも可能となっています。
簡単な例としては顔認証をされないようにお面をつけるといったような方法で、一律に認識や判断をするAIにおいてはそうしたものを自分の判断で判別することができません。

今後の課題と対処法

とはいえ、今後AIは大きく発展していくことが予想される分野であることから、いかにして情報の正確性を判断できるかという点が大きな課題になってきます。

人間が何か物事を判断する時には、単純に過去の事例や論理によって判断するわけではなく、微妙な機微によって判断をしています。
そうした人間ならではの微妙な判断基準をどこまでAIに反映させていくことができるか、ということが今後の技術では大きなカギになっていくことでしょう。

また誤作動が起こったときに大事故の可能性がある自動運転システムなどでは、どのように安全性を確保するかというところもまた大きな問題になってきます。

当面はAIの技術と人間の仕事を併設させていくことにより、安全性を確保していくという運用になることでしょう。