● ●誤差の大きさ 入社以来、私は AI 技術のひとつである深層学習に関する研究に携わってきました。学生時代には深層学習の経験は全くありませんでしたが、日々の業務で触れていくうちにその面白さに次第に惹かれていきました。特に興味深いと感じるのは、「勾配降下法」という手法によって、AIが少しずつ賢くなっていく「学習」というプロセスです。機械であるはずのAIがこの手法によって学習していく様子は、どこか人間的な成長の過程を見ているようなのです。 AIの代表的な学習方法の1つである「教師あり学習」では、人間が用意した大量のデータとそれらに対する答えをAIに与えることで、予測の仕方を学習させます。理想的には、これらのデータに対してAIが正確に答えを予測できるようになってもらいたいということになります。しかし、AIの内部には膨大なパラメータがあるため、どのように調整すればよいのかを人間が直接的に見つけることは容易ではありません。そこで、重要となるのが勾配降下法です。 勾配降下法は、現状のAIによる予測結果と人間が用意した答えとを比較し、それらの誤差がより小さくなっていくように AIを調整します。つまり、予測と正解とのずれが小さくなる方向を探し、その方向に向かって少しずつAIを近づけていくということになります。この操作を何度も繰り返すことによって、AI は少しずつより良い状態へと変化していき、次第に精度の高い予測ができるようになっていきます。 私がこの勾配降下法に惹かれるのは、AIが学習していくプロセスが、私たち人間が日々の生活で行う試行錯誤と非常に似ていると感じるからです。私たちも、日ごろの生活で常に完璧な答えを知っているわけではありません。そのため、より良い結果が得られるように現状を少しずつ改善していくということを繰り返しながら生活しているのではないでしょうか。例えば料理をする際には、味見をしながら少しずつ調味料を足していくことで、自分の好みの味に近づけていくことがあります。これはまさに、最適な状態がわからないものに対して、試行錯誤を繰り返すことで徐々に改善していくプロセスそのものです。このように、我々が無意識のうちに行っているような試行錯誤と似たような過程を経て、AIも次第に高い能力を獲得していくのです。 似ている点はこれだけではありません。時には、改善に失敗してしまうという点も共通しています。良かれと思って取った行動によって、むしろ状況を悪化させてしまったということは誰しも経験があると思いますが、このようなことは AIの学習でも同様に起こり得ます。現状を良くすると思えた方向へ進んだとしても、その変化の量が大きすぎた場合などには、かえって性能が低下してしまうことがあるのです。それでも地道に試行錯誤を繰り返すことで、一時的に悪化してしまったとしても、最終的にはよい方向へ進むこともあります。 このように、AIが勾配降下法によって学習するプロセスは、私たちが行う試行錯誤と非常に似ています。完璧ではない現状から、少しずつ改善を積み重ねていくことで目標に近づくというこの考え方は、私たちの仕事や日々の生活にも通じるのではないでしょうか。AIの学習プロセスを知ることは、私たち自身の行動を改めて見つめ直す良い機会になるかもしれません。※ ※※ ※※ ※勾配降下法リオンスタッフのこだわりコラム20No. 009AI に感じる人間らしさ ●EPILOGUE SCIENCE, SCIENCE ! 更新を繰り返すことで、次第に誤差が小さくなっていく傾きを考えて更新する方向を決める機械学習におけるパラメータの最適化で用いられる手法。最小化したい関数(目的関数 )の勾配を求め、その勾配を元に関数が最小となるパラメータを探索する。数式上のαは学習率、Jは目的関数とし、目的関数が減少する方向へ向かうようにパラメータを更新している。佐藤 僚研究開発センター 研究開発室 AI 応用 研 究 開 発グル ープ。2020年入社。補聴器の信号処理およびファームウェア開発を経て、現在は深層学習を用いた補聴処理の研究開発に従事。勾配降下法リオンを支える、理科や数学好きなスタッフたち。第 9 回はAI の学習プロセスで利用する「勾配降下法」について。マシンとヒトは似ているのか、あるいは非なるものか?(k+1) θ = (k)文 /佐藤 僚θ−α●● ∂J∂θ 理数好きなもので。
元のページ ../index.html#22