英語力が一番伸びる語学学校

AI

進歩を続けるAI技術!最先端のAIとは?

カナダ・トロント大学のジェフリー・ヒントン教授率いる研究チームが2012年に世界画像認識コンテスト(ILSVRC)で優勝して以降、ディープラーニングは第3次AIブームをけん引する技術になりました。それから10年も経たないうちに、新しいAI技術が続々と登場しています。

 

第3次AIブームをけん引したディープラーニングとその限界、そしてその後のAI技術がどう克服しているのかについて説明していきます。

参考記事:理系エイゴ「AI」関連記事はコチラ!

第3次AIブームに至るAIの進化

50年以上の歴史のある人工知能研究

人工知能(AI)の誕生は1950年代と古く、チェスをプレイできるプログラムが既に存在したといいます。ところが計算機の速度が遅いことに加え、人工知能研究も黎明期であったため、われわれ人間と同じような作業をコンピューターに実行させることなど夢物語でした。

 

このような状況を打破したのが、ディープラーニング(深層学習)です。ヒントン教授が、世界画像認識コンテストで圧倒的な誤り率で優勝したことから、一躍ディープラーニングの名が知れ渡りました。

参考記事:
AIと機械学習の関係は?ディープラーニング(深層学習)との違いも解説!

ディープラーニングの基礎にあるニューラルネットワーク

ディープラーニングの基礎となるニューラルネットワークの研究は長年行われてきました。入力層・中間層・出力層の3層から構成されるニューラルネットワーク(パーセプトロン)は元来人工知能研究とは別の文脈で研究されてきました。入力層から取り込んだデータを中間層で学習。それをもとに出力層から答えを得る点は、ディープラーニングと全く同じです。ディープラーニングが新しいのは、中間層の数やニューロンを結びつけるネットワークを増やすことで、複雑な計算を実行可能になった点です。中間層の複雑化により計算量は増大しますが、コンピューターの進化により、ディープラーニングの稼働が実現可能になりました。

 

人工知能(AI)と近年呼ばれる技術は、ディープラーニングをはじめとする機械学習を指すといっても過言ではありません。もちろん、決定木やサポートベクターマシン、統計的機械学習等の従来手法もありますが、その高性能さからディープラーニングが注目されているのです。

参考記事:
AIの進化には欠かせない「ニューラルネットワーク」とは?

現状のAIの課題

データの量に比例する性能

ディープラーニングは画像認識の分野で実力を発揮しました。学習するデータが大量に存在するのが要因です。ディープラーニングの骨子は、データが多いほど最適な回答が得られる点にあります。言い換えると、ビッグデータが用意できない場合には、ディープラーニングの実力が十全に発揮されないのです。とりわけディープラーニングでは、ラベル付けされたデータが必要になるので、その事前処理に時間がかかります。

 

AIの活用のひとつに囲碁やチェス等のボードゲームが挙げられます。ディープラーニングを活用した囲碁プログラム「AlphaGo」。2016年3月に囲碁の世界チャンピオンであるイ・セドルに勝ち、その実力は広く知れ渡りました。ところが棋士による囲碁の棋譜は、学習させるには十分な量ではありません。囲碁は莫大な碁石の打ち方が存在し、その計算量の多さで知られていますが、打つ手に関しては合理的だと棋士(人間)が考えた棋譜だけが、記録として残されています。つまり、人間が合理的でないと判断した棋譜のほうが圧倒的に多いのです。しかし機械学習からみれば、人間が合理的でないと判断した棋譜にも、学習する価値はあります。ボードゲームひとつ取っても、ビッグデータの量は十分とはいえないのです。

参考記事:
AI がもたらす問題点とは?技術的問題から法的問題まで一挙解説

処理のブラックボックス化

ディープラーニングのもうひとつの難点は、その処理がブラックボックス化されていることです。中間層では「特徴量」と呼ばれる規則性に相当する量が抽出されます。われわれがヒトの顔を判断するために、鼻や口といったパーツやその配置、色など、さまざまな特徴を駆使して、どの対象がヒトの顔かを判断します。ディープラーニングも同様で、学習から導かれた特徴量を判断の材料にしますが、われわれが理解し得ない特徴量で判断を下している可能性があるのです。

 

ディープラーニング処理のブラックボックス化は、その処理をわれわれが信じていいのかという問題を引き起こします。ディープラーニングの活用事例として、自動運転や病巣の発見等が挙げられます。これらも判断もビッグデータの学習で行なわれますが、われわれがこの判断を無条件に信じられるかといえば話は別です。命にかかわる事例でもディープラーニングだけを頼りに判断を下すのに、リスクが付きまといます。

最先端のAI技術

強化学習

AlphaGoの登場で一躍有名になったディープラーニングですが、実は強化学習が取り入れられています。ディープラーニングは、画像処理や音声処理といった答えが分かっている場合には力を発揮する機械学習です。その一方で、囲碁における碁石の打ち方など、計算量が膨大すぎて、いまなお正答は判っていません。そこで重要になるのが、強化学習です。

 

強化学習では、エージェント(行動主体)の行動に対し、報酬を定めます。エージェントは、この報酬の総和を最大化するように、最適な行動を学習していくのです

 

参考にするデータが少なくても学習が続けられる一方、強化学習だけで最適な行動を導くのが困難なのが強化学習の特徴です。AlphaGoの場合には、ディープラーニングによる教師あり学習と強化学習を組み合わせた「深層強化学習」によって、互いの弱点を補っています。AlphaGo以外にも、自動運転などに深層強化学習の応用が期待できます。

AlphaGo Zero

AlphaGo Zeroは、2017年10月に英科学誌「ネーチャー」にて論文発表されました。AlphaGo ZeroはAlphaGoと異なり、強化学習だけで作られた囲碁用プログラムです。人間による棋譜を一切使用しないで、AlphaGoよりも強い囲碁用プログラムを完成させたことは、世間に衝撃を与えました。AlphaGo ZeroはAlphaGoに対し、9割近い勝率を上げたといいます。

 

学習にかかった時間の短さも特徴的です。AlphaGo Zeroは3日学習を続けただけで、トッププロのレベルを超えてしまったといいます。

 

AlphaGoとAlphaGo Zeroとの大きな違いは、ゲームを最後まで行なう(プレイアウト)かどうかです。AlphaGoでは、最後までゲームを行ない、碁石を打つ評価関数を導出していました。しかしこの方法では、評価関数を求めるまでに時間がかかります。そこで導入されたのが、「モンテカルロ木探索」です。AlphaGoでもモンテカルロ木探索は一部使用されていましたが、性能が上がり、最後までゲームを遂行することなく、手の勝率を示す評価関数が作られるようになりました。

BERT

BERTはGoogleが開発した自然言語処理AIです。従来のAIによる読解問題の正答率を、BERTは人間のそれを上回ったことで衝撃を与えました。具体的には、文章が与えられたときに、それをもとにした読解問題をBERTに解かせます。するとBERTは文章から適切な回答を抜き出してきます。この正答率が人間の平均点よりも高かったのです。

 

従来の自然言語処理では、単語に品詞などのデータを付与して学習を行なう教師あり学習が基本でした。しかしBERTではWikipediaのような生の文章をそのまま学習に利用する教師なし学習が行われています。生のデータを「事前学習」したのち、タスク用に微調整の学習を実施する2段階形式をBERTは採用しています。事前学習には時間がかかるため、Googleは学習済みのデータを公開するなど、利便性も高くなっています。

 

BERTの公開して3カ月後に、マイクロソフトが自然言語処理AIのMT-DNNを公開し、BERTのスコアを超えることに成功しました。MT-DNNもBERT同様、事前学習と微調整から構成されています。

XAI(説明可能なAI)

ディープラーニングの欠点として、処理がブラックボックス化されていることが挙げられます。このブラックボックス化された処理を人間に理解できるよう解釈する取り組みが行われています。アメリカ国防高等研究計画局(DARPA)が中心にXAI(説明可能なAI)の開発に乗り出しています。

 

たとえば、知識の関連付けを示すグラフ表現を用い、ディープラーニングから推論に用いる因子を抽出し、2つを統合することで、推論の結果やその理由が表現可能になります。これにより、ディープラーニングの判断根拠を人間が理解できる形になるといいます。

 

ディープラーニングは自動運転や医療診断にも応用されていることから、XAIはこれら安全性に関わる事例への応用が期待できます。

敵対的生成ネットワーク(GAN)

敵対的生成ネットワークは、2014年にOpenAIに属するイアン・グッドフェローらによって提唱された教師なし学習によるニューラルネットワークです。ディープラーニングの多くは、畳み込みニューラルネットワーク(CNN)と呼ばれる手法が用いられています。画像の分類などに力を発揮する一方、データの生成への応用も期待されるようになりました。

 

ところが、白黒写真のカラー化や手書きスケッチを自然画像への変換等の生成モデルで、CNNを使ったモデルが容易に構成できませんでした。そこで登場するのが、GANです。GANではノイズを入力したフェイク画像と学習に用いるリアル画像の2つを用い、どちらであるかを識別機に判定させることで学習を進めてゆきます。サンプル画像を用意するだけで学習を自動で進めてくれるGANは、画像生成だけでなく音声の合成などにも応用が期待されます。

AI研究最先端の拠点は?

最先端のAI研究5つを紹介してきました。多くの事例がアメリカ、とりわけGoogleやマイクロソフトなど巨大IT企業発の研究であることが示唆されます。XAIを提唱したDARPAもアメリカの機関であり、またOpenAIもAI研究の非営利団体ながらも、宇宙開発のSpaceXを率いるイーロン・マスクやマイクロソフトが出資するなどアメリカとの関連が深い団体です。

 

人工知能研究をけん引するのが、アメリカや中国等の大国です。人工知能国際会議(IJCAI)とアメリカ人工知能学会(AAAI)といった同分野で権威ある学会で採択数が抜きん出ているのが、この両国です。AIに関する論文投稿数も年々増加傾向にあるなど、AIの需要は高まっています。

 

両国に共通するのが、圧倒的な予算です。アメリカの場合、時価総額の高いIT企業がM&Aによる技術吸収や、大学研究機関からの優秀な人材の囲い込みを行なっています。他方中国の場合は、国がBAT等のIT企業に対し重点的に予算を投入しています。

参考記事:
【徹底解剖!】AIをけん引するGoogleの取り組みとは?

AIの進化スピードに乗り遅れないよう

ディープラーニングはAIの代名詞として扱われていますが、そこから10年もたたないうちに斬新な技術が次々と登場しています。、その一方で、AIの倫理的な側面や実用化の側面から、AIと人間との共生がキーワードになりつつあります。

 

AI分野に限っても少し前の知識が通用しにくくなっており、われわれも最新のAI知識に乗り遅れないようアップデートの必要に迫られています。

 

<参考資料>

Google Open-Sources BERT: A Natural Language Processing Training Technique

MT-DNN:BERTを凌駕するMicrosoftの新しいNLPモデル

「「第27回 人工知能国際会議」概要報告」(『ロボット』2019年3月号)

「「第32回 アメリカ人工知能学会」概要報告」(『ロボット』2018年9月号)

「根拠が分かる”ホワイト”なAI」(『日経ビジネス』2019年2月4日号)

「アルファ碁ゼロの衝撃」(『日経サイエンス』2018年2月号)

「アルファ碁に見るAI最前線」(『Re : Building maintenance & management』2018年1月号)

「Deep Tensorとナレッジグラフを融合した説明可能なAI」(『FUJITSU』Vol.69, No.4)

「GAN―敵対的生成ネットワーク―の発展」(『人工知能』2018年3月号)

「注目AIアルゴリズム「強化学習」初体験」(『Interface』2019年1月号)

『人工知能はどのようにして「名人」を超えたのか?』(山本一成 著)

『AIの教科書』(伊本貴士 著)

『最強囲碁AIアルファ碁解体新書』(大槻知史 著)



「無料説明会」を開催中です。

  • この記事を書いた人
  • 最新記事
サウスピーク編集室

Naoki Kitayama

本気留学サウスピークが「フィリピン・セブ島留学 / 英語試験 / 現地生活」に関する情報をお届けします。すべての英語学習者に役立つ情報が盛りだくさんです!

-AI

Copyright© ゼロから実現する海外就職 | フィリピン留学、セブ島留学ならサウスピーク , 2019 All Rights Reserved Powered by AFFINGER5.