機械翻訳はここまで来た!

機械翻訳
 
機械翻訳の性能が飛躍的に向上しています。特にこの10年程度の技術の躍進には目を見張るものがあります。日本では外国人観光客と2020年の東京オリンピック・パラリンピックに対応すべく、機械翻訳機能を登載した案内サービスが増えており、その性能に驚かされた方も少なくないかもしれません。今回は 機械翻訳 の進歩の歴史に迫ります。

■ 精度は今も上昇中

機械翻訳は、文章を単語や文節(フレーズ)にバラバラにしてから逐語訳をするルールベース翻訳(RBMT: Rule-Based Machine Translation)から始まりました。それが対訳コーパスを利用する統計翻訳(SMT: Statistical Machine Translation)、そして第3世代のニューラル機械翻訳(NMT: Neural machine translation)の登場で、さらなる精度の向上が図られています。スマートフォンやPC利用者には身近なGoogle翻訳ですが、これはまさに、NMTのニューラルネットワークを利用した機械翻訳です。

これまでは、欧米の言語と日本語など、文法や単語の類似が少ない言語を翻訳する際には、逐語訳したものをつなげ直す従来の翻訳技術だけで精度を上げることは困難でした。そこで、翻訳機械に学習機能をつけるという技術革新、つまりNMTが開発され、近年の飛躍的な進歩が成し遂げられたのです。膨大な対訳データをコンピュータ自身が「学習」することで翻訳精度を上げるNMTは、データ処理能力と速度が格段に進歩した現代だからこそ可能になった技術です。

■ ニューラル機械翻訳の革新性

2016年9月、 Google社はGoogle翻訳にNMTを導入することを発表、11月には8つの言語ペアをGoogleニューラル機械翻訳(GNMT: Google Neural Machine Translation)に切り替え始めました(この発表に先立ち、先行導入されていた英語⇔中国語にフランス語・ドイツ語・スペイン語・ポルトガル語・日本語・韓国語・トルコ語が追加された)。これらの言語で、Google翻訳のクエリの35%以上をカバーするとのことです。

GNMTは、文全体を訳出することで、より文脈に沿った自然な翻訳を提供してくれます。これを可能にしたのが、ニューラルネットワークによるディープラーニング(深層学習)です。生物の脳の神経細胞(ニューロン)ネットワークをモデルとしたアルゴリズムを使って機械に学習させるのですが、この際に重要なのが「長・短期記憶(LSTM: Long Short-Term Memory)」で、システムに長期の時系列データを学習させることで、自然な言語処理を可能にしています。人間の脳では、ニューロンに電気信号を送ることで情報伝達・学習を行っていますが、コンピュータのディープラーニングは画像処理ユニット (GPU: Graphics Processing Unit)や、機械学習に特化した集積回路であるテンソル処理ユニット(TPU: tensor processing unit。推論する性能を向上させる。)などの技術開発によって支えられています。

Googleはディープラーニング専用プロセッサTPUの開発を進めてきました。囲碁AIの「AlphaGo(アルファ碁)」にもこのTPUが利用され、人間のプロ棋士に勝利するに至ったと聞くと「すごい技術だ」ということだけは分かります。Googleはこの自社開発の高性能なTPUによる機械学習をGoogle翻訳に適用させ、予想以上の性能を示す「ゼロショット翻訳」が可能なニューラルネットワークを構築するに至ったのです。

■ ゼロショット翻訳とは

アルファ碁のすごさは、碁の打ち手の膨大な入力パターンを学習して状況を認識し、評価し、意思決定するというプロセスを可能にしたことです。では、翻訳システムもこうした学習が可能なのでしょうか?翻訳システムに特定の言語ペアの翻訳を学習させたら、他の言語ペアの翻訳にも対応できるのでしょうか?つまり、言語ペア間の翻訳作業を直接教え込まなくても学習することができるようになるのでしょうか?

この疑問に答えるべく、Google社の研究者たちは、翻訳システムである実験をしました。日本語⇔英語の翻訳と韓国語⇔英語の翻訳をシステムに共有し、韓国語⇔日本語の翻訳をやらせてみたのです。結果、このシステムは直接の訓練を受けていない2か国語の翻訳を、英語を介さずにやってのけたのです。Google社はこのように明示的なトレーニングを受けていなくとも実現する翻訳方式を「ゼロショット翻訳」と呼んでいます。

Google社の研究者たちが見出したのは、このニューラル機械翻訳システムが、ある言語ペアで学習した「翻訳知識(translation knowledge)」を他の言語ペアに移行させているということでした。そして、このネットワークは、単純にフレーズごとの訳文を記憶するのではなく、文章の意味についてもエンコード化しており、ネットワークに中間言語(interlingua)が存在すると考えられる、と結論づけました。言い換えれば、言語間の翻訳を行って意味・概念を共有したことで、システムが独自の内部的言語を開発したのでは……と考えられる事態となったのです。この新しいシステムについては研究途中ですが、機械翻訳における学習知識の言語間移行の実現は、革命的であることに違いありません。

■ 進化はどこまで続く?

Googleのオンライン翻訳ツールサービスが開始(2006年4月)されてから10年以上が経過しました。サポートする言語は103言語にまで拡大。ハワイ語やクルド語など話者数の少ない言語も追加され、今や世界のオンライン人口の99%をカバーし、1日あたり1,400億以上の言語翻訳を実行するに至っています。

技術開発によりGNMTのような有効な翻訳システムが現れ、機械翻訳の質が大幅に改善されたことは明白です。各国の言語の相互翻訳が瞬時に、ある程度の精度でできることのインパクトは計り知れません。Google社が先導する日進月歩の技術革新は、グローバルコミュニケーションに大変革をもたらす可能性を秘めています。

とはいえ、GNMTでも珍奇な単語や固有名詞を翻訳させると逐語訳に戻ってしまいますし、人間による翻訳では起こらないようなミスを犯すことも事実です。人間による翻訳と機械翻訳には、まだギャップが残っているのです。システムの学習能力が進歩しても、あらゆる翻訳パターンにおいて言語のニュアンスを的確に伝え、文化特有の表現や価値観、コンテクストまで表現するのは困難です。……というのは大方の予想ですが、これまでも幾度も私たちの予想を超えてきた機械翻訳。今後どこまで進化するのか、目が離せません。
 
参考:
Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation
https://arxiv.org/abs/1609.08144
Google’s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation
https://arxiv.org/abs/1611.04558

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

次のHTML タグと属性が使えます: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>