Photo Gallery

今さらだけど、MT Summitの4日目(21日分)です。
※1年近く前の話だということをご承知おきください。

ま、NICTの隅田氏はこの6月にAAMT会長になられたし、
最終日(5日目、後で書きます)のJTFワークショップのMike Dilinger氏は、JTF翻訳祭2018でも招待講演されるので、
おさらいとして丁度いい機会かもね。


*******************************

午前①:Social Innovation Based on Speech-to-Speech Translation Technology Targeting the 2020 Tokyo Olympic/Paralympic Games(隅田英一郎氏、NICT)


Speech Translationについての講義。

NICTはVoiceTraというスマホアプリを所持。
富士通は、医療分野のウェアラブル型ハンズフリー音声翻訳端末を9/19に発表(東大病院とNICTと共同で臨床試験を実施した)。
また、隅田氏はTexTraについても触れ、「ユーザ辞書がvitalである」と述べられました。

NMTは、今まではDeep learningに注力していましたが、最近はTranslation dataが重視されているそうです。
webに出ている翻訳はわずか20%であり、出ていない翻訳80%を占めるらしいです。
そこで、オール・ジャパン体制で翻訳データを集積する訳バンク」を呼びかけられていました

同氏は、MT is surpassing average Japanese persons(機械翻訳は平均的な日本人を上回ってきている)と述べられました。また、自動翻訳を『育てながら活用することを説かれていました。

NICTが開発中の同通システムは、word-to-wordではなく、chunk-to-chunkだそうです。

同氏は、「No MT, No Life」という力強い言葉で講演を結ばれました。

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

午前②:Evaluation and Cognitive Model


[1] A Comparative Quality Evaluation of PBSMT and NMT using Professional Translators(Sheila Castilho氏ら)

同氏らは、4つの言語ペア(ドイツ、ギリシア語、ポルトガル語、ロシア語。日本語なし)におけるPBSMTとNMTの比較評価を報告しました。試験にはPETインタフェースを使用し、自動評価だけではなく、人(プロ翻訳者)による妥当性・流暢性、エラー種類のマークアップ、ポストエディットの(技術的および時間的)作業のランキングを含めた様々なメトリックを使用し、教育分野の翻訳結果をPBSMTとNMTで比較しました。結果は比較によりランク付けされ、全言語ペア、文章、および分節の長さについて、NMTが優れていることが示されました。さらに、流暢さの認識が改善され、語順エラーはNMTの方がより少なかったそうです。

[2] One-parameter models for sentence-level post-editing effort estimation(Mikel L. Forcada氏ら)

MTのポストエディットに必要な作業量を予測する方法は、MTを翻訳業界でより役立つものにするために有望であると考えられます。様々な方法が提案されてきており、その機能とパラメータの数はますます増加し、複雑になってきていますが、問題は解決には程遠いです。ここでは、作業量の指標としてポストエディットにかかる時間に注目し、一歩退いてデータの一般的特性に基づくパラメータが1つの(非常に単純で解釈が容易である)estimatorのパフォーマンスを分析しました。
分析は以下について行いました:
(a)トレーニングセットで測定したポストエディット時間の重みの平均値(※「重み」とは、新しいセグメントとトレーニングデータ間の修正距離の指数関数)
(b)セグメントの長さの一次関数としてのポストエディット時間
(c)原文と訳文の統計的言語モデル
これらの単純なestimatorは、強固なベースラインを上回り、驚くべきことにより複雑なestimator(パラメータ数が多く、豊富な機能を組み合わせているもの)に匹敵しました。
このことにより、ポストエディットの作業量のpredictorを構築するには、盲目的に洗練された機械学習アプローチを試みる前にまず単純で直感的で解釈可能なモデルを検討し、新しい機能を追加して徐々に複雑にすることによって、段階的に改善すべきであることが示唆されました。

[3] A Minimal Cognitive Model for Translating and Post-editing(Moritz Schaeffer氏ら)

本試験では、全文翻訳とポストエディットの読み(インプット)と書き(アウトプット)の協調について調査を行いました。目の動きを記録したデータとキーを記録したデータを読み書きの最小単位に分割し、ポストエディットと全文翻訳のプロセスをマルコフモデルとしてモデル化しました。翻訳者とポストエディターが原文または訳文を読むのに費やした時間によって、継続的に文字を打っている確率を高い精度で予測することができます。さらに、文字を打っている確率は、原文と訳文で意味と構文の性質がどの程度似ているかによっても決定されることが示されました。 最小認識のマルコフモデルによって、翻訳中にインプット(読み)とアウトプット(書き)の間に生じるプロセスで役割を担う非常に基本的な要因が明らかになりました。

ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー

午前①:

◇Poster Presentations◇

自由行動(希望者がポスターの前に行くと、ポスター作成者がポスターの前に待機しており、説明してくれる)。

私は、「Machine Translation as an Academic Writing Aid for Medical Practitioners」にお邪魔させていただきました。
担当していただいたADAPT Centre(アイルランド・ダブリン)のCarla教授(女性)は、1日目の「MT for Academic Writing: A Hands-On Workshop」の事前課題の提出でやりとりしていた方だったので、実物に会えた―!て感じでしたね。
「機械翻訳は医療分野の実務で使えると思いますか?」
という私の問いに、
「はい。ただし、carefulに」
という返答をいただきました。
スペインでは英語能力が低い移民が機械翻訳を使い、問題になっているそうです。
(機械翻訳を使うとしても、少なくともそれが正しいかどうか判断できるくらいの語学能力は必要なようです。)

午後②:Domain Adaptation

[1] Fine-Tuning for Neural Machine Translation with Limited Degradation across In- and Out-of-Domain Data(Praveen Dakwale氏ら)

ニューラル機械翻訳は最近提案されている方法で、従来の機械翻訳の方法に匹敵する結果が示されてきています。他のニューラルネットワークベースの方法と同様に、NMTはトレーニングデータが少ないドメインについては性能が低いという欠点もあります。ドメイン適応は、新しいドメインからのテストインスタンス上の大規模な汎用ドメインデータに訓練されたモデルの性能を向上させます。Fine-tuning(転移学習)は、NMTを含む様々なニューラルネットワークベースのタスクで実質的に改善を実証してきている、迅速かつ単純なドメイン適応方法です。しかし、それは汎用ドメインまたは原文ドメインのテスト文の性能が急激に低下するため、リアルタイム・アプリケーションでは好ましくありません。この急激な低下に対処するため、転移学習に2つの単純な変更を提案します。それはKnowledge Distillation(「知識の蒸留」) の枠組みに基づく多目的学習と多出力学習です。英語→ドイツ語の翻訳の実験では、この方法では訳文ドメインのタスクの単純な転移学習に匹敵する結果が示され、汎用ドメインのタスクの損失も比較的少なかったです。

[2] Exploiting Relative Frequencies for Data Selection(Thierry Etchegoyhen氏ら)

ここでは、in-domainコーパスとout-of-domainコーパス間で計算された相対度に基づいて、機械翻訳のドメイン適応を目的とするデータ選択方法を記述します。我々の方法は交差エントロピーの差に基づく最先端の方法と比較して、様々なデータスライスから作成されたモデルで、データスパースネスの減少およびBLEUスコアについて大幅に優れていました。また、この方法は、交差エントロピーを最小化するように設計された方法と比較して、perplexityが大幅に優れている or 匹敵する結果を示しました。out-of-domainのデータセットで未知語を取り出すための新しい方法も提示され、主要ドメインとの類似性が相対度によって決定される文を重み付けするために使用する場合、全体で最良のモデルとなりました。提案された方法は単純であり、外部リソースも複雑な設定も必要とせず、ドメイン適応シナリオ全体で非常に移植性が高い(highly portable)ものです。

*******************************

Fine-tuning(転移学習)Knowledge Distillation(「知識の蒸留」)機械学習用語ですね

⑤に続きます。

自分の翻訳の単価は、どうやって決めればいいのだろうか。

もちろん、何円に設定するかはそれぞれの自由だが、
商売である以上、ある程度は相場というものが存在する。

これは翻訳会社側になればすぐわかることなのだが、
(というか、一番知ってるのは翻訳コーディネーターだと思う)
フリーランス翻訳者は基本的に自分の翻訳しか知らないため、
自分の翻訳を過大評価してしまったり、逆に過小評価してしまったりしがちである。

私のオススメとしては、

①セミナーに出かけ、レベルの高い質問をしている人に話しかけて単価を聞く
②飲み会などの会話から、他の翻訳者の単価を推測する


そして、
自分の翻訳が全体から見てどのレベルかを知る
ことである。

他の翻訳者のレベルと単価を比較して、
「Aさんが〇〇円、Bさんが●●円なら、自分は△△円くらいかな」
自分の翻訳の市場価値を推測していくのである。

スイーツで休憩。
スイーツ☆

WHAT'S NEW?