MT Summitの感想② - (1)

 28, 2017 10:00
2日目その1(19日午前分)です。

この前1日ずつ書くと言いましたが、それでも長いので、
場合によっては1日をさらに(1)(2)に分けて書きたいと思います。
*******************************

2日目の朝は、豊田講堂ホールで初代AAMT/IAMT会長である長尾真先生(京都大学名誉教授・元総長、元国立国会図書館長)の開会のあいさつで始まりました。

長尾先生は、
「近い将来、機械翻訳は人間翻訳を超えると信じている」
「機械翻訳は世界平和へのカギである」
とおっしゃられたのが印象的でした(英語でしたので、聞き間違いでしたら申し訳ございません)。

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

午前①:MT and AI: Probing Near- and Medium-Term Impacts


[1] Chris Wendt氏(Microsoft社)

MTはAIの一部であり、
AIは、
①ANI(Artificial Narrow Intelligence)
②AGI(Artificial General Intelligence)
③ASI(Artificial Superintelligence)
の順に進化し、
現在実現されているのは①ANI(Artificial Narrow Intelligence)のみですが、
徐々に②の方向に進化しているということ。

[2] Tony Hartley氏(立教大学)

教育者として、
"Re-assure potential students that NMT will not kill job prospects, but open new ones."(「NMTは仕事を奪うものではなく、新たな仕事を生み出すものである」と、生徒候補を安心させる)
ことを説かれていました。  
そして、MTの開発には、
"contributions of linguistics and computer science"(言語学とコンピュータサイエンスの両方の協力)"
が必要であるとおっしゃられました。
この方は、どちらも知ってる方ですからね。

[3] Olga Beregovaya氏(Welocalize社/AMTA会長)

この方は女性ですが、アメリカ機械翻訳協会の会長です(MTエンジニア)。

MTは実際にビジネスに活用されており、
時には恋も実らせる(実話)そうです。
MTの普及はwithout borders(国境を越えて)であり、
品質の向上が求められているそうです。

[4] 武田珂代子氏(立教大学)

同通システムについて述べられていました。

[5] Marine Carpuat氏(University of Maryland)

"How could MT augment translators/interpreters performance?"(MTによってどのように翻訳者/通訳者のパフォーマンスを上げるか)という視点でお話されていました。
テストに人間翻訳者を使うと非常にコストがかかるため、代わりにバイリンガルを使うということです。
また、MTは長期的に言語そのもののに影響を及ぼすのではないか?という問題については、
言葉は自然に変わっていくものというお話でした。

[質疑応答]

パネリスト全員が参加者からの質問に回答されました。
翻訳会社の方から、
「NMTには"ブラックボックス"があり、訳語が一定ではないが、この問題はどうするのか?」
という質問に対し、
Marine Carpuat氏は、
interesting proposal(面白い提案)が出ており、classifierを使ってNMTの訳語のdecisionをわかるようにするというというものがあります」
と述べられました。

【補足】Pascale Fung氏(Hong Kong University of Science and Technology)は来られず、
代わりにMarine Carpuat氏(University of Maryland)がパネリストとして参加されていました。
パネリストはすごい方ばかりですが、
特に興味深いのが、Tony Hartley(立教大学)氏
この方は元翻訳者・会議通訳者で、コンピュータサイエンスを勉強し直したそうです(大学で修士号を取得)
私は翻訳者側からMTを勉強しようとしていますが、
すでにそういういう方がいるということに驚きました。
(最終日のJTFワークショップのMike Dillinger氏やManuel Herranz氏も元翻訳者だそうです。)
computational linguistって最近の職業かと思っていましたが、
この方がその初期の方かもしれません。

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

午前②:Enhancement of NMT I 


[1] Empirical Study of Dropout Scheme for Neural Machine Translation(Xiaolin Wang氏ら) 

Dropout Schemeとは、要するにこういうやつらしいです(イメージ)。
Dropout Scheme 

Dropout Schemeは、over-fittingを緩和するらしいです。

結論として、"Heavy dropout can improve performance on different corpora."(対象言語:中国語→英語、英語→日本語)と述べられていました。

[2] A Target Attention Model for Neural Machine Translation(美野 秀弥氏ら)

NMT特有の問題であるover/under generationについて、
over generationは、ソース側のトークンが重複して翻訳され、
under generationはソース側のトークンが翻訳されないことで生じるそうで、
これを緩和するために、美野氏らは各トークンにAttentionがより効率的に(より多く/少なく)あたるように、ターゲット側のAttentionのメカニズムを導入する試験を行いました。(対象言語:英語→日本語の3種類のデータセット)

結論として、
"Source/target attention model improved over/under generation."
と述べられました。

【補足】本会では、PanelやInvited Talk以外のセッションは3つに分かれており、参加者が自由に選べるようになっていました。
筆者は、基礎研究に近いものを選択しました(例:Evaluation and Cognitive Model、Data Construction、QA and Terminologyの3つならEvaluation and Cognitive Model)。
もちろん、Data ConstructionやQA and Terminologyも大事ですが、
それはEvaluation and Cognitive Modelのの段階なので、
Evaluation and Cognitive Modelの時点で精度が低かったら、
いくらData ConstructionやQA and Terminologyをイジっても意味がないので。
*******************************

わかりやすいように内容を端折った&発表は全部英語で行われたために聞き間違いがあるかもしれませんので、
詳細は各発表者までご確認&お問い合わせください。

19日午後分は② - (2)に続きます。


関連記事

COMMENT 2

Thu
2017.09.28
16:14

NT Chougenbou #-

URL

Thank you for the highly informative report.
Insightful and to the point. 

Edit | Reply | 
Thu
2017.09.28
18:56

ローズ三浦 #-

URL

To NT Chougenbouさん

I'm glad to hear that it's useful for you! 

Edit | Reply | 

WHAT'S NEW?