Photo Gallery

6000円払ってめでたくAAMT会員となり、
MT Summitに申し込みました。

検討の結果、最終日のJTF主催ワークショップにも参加することにしたので、
本会 + ワークショップ×2 + 懇親会 + AAMT会費で、
計76000円。

しかも参加するだけでこの値段w
この他に交通費+宿泊費+滞在費等別途かかります。

結局名古屋で4連泊w
空き時間はホテルで仕事 or 観光でもするか。

ちなみに「MT for Academic Writing: A hands-on workshop」については事前アンケートがあり、
参加者は自分の第一言語で書かれた論文(750 words程度)を事前に提出
→主催者側がそれを機械翻訳で英語に翻訳してくれる
→参加者は当日会場でポストエディットをする

というスタイルらしい(当日は改訂履歴が残るテキストエディタをインストールしたノートパソコンを持参とのこと)

こういう参加者指向のワークショップはありがたいね!


もう、こんだけお金かけていくので、
MT Summitで聞いた技術は全パクリする勢いですw
しかし全パクリするにしてもある程度の技術力はいるんですよねw

それに、公式サイトも英語のみだし、もしかしたら発表は英語のみで、日本語の通訳は付かないのかもしれない(JTF主催ワークショップについては付くと書いていますが)。
筆者は英語の聞き取りも十分でないので、英語がわからなくて技術もわからなかったら余計にわからなくて終わると思う。

ということで、行くまでに猛勉強w

ちなみに事務局に問い合わせをしようと思ったら、問い合わせ先がない!
参加料金めっちゃ高いのに不親切だなw
通訳付くか知ってる方いたら教えてください。


一次関数の描画デキタ---(゚∀゚)---!!!
一次関数の描画。

ちなみにMatplotlibというグラフ描画ライブラリ使ってまつw
Matplotlibをインストールしとくと、plt.show()で自動的に描画が出てきてオオーーッ!!!(゜o゜)となりました(←ど素人w)

昨日JTFからMT Summitに合わせて開催されるJTF主催ワークショップのお知らせメールが届きました。
ちなみにこれが第2回JTF関西セミナーってことらしいです。

なんじゃそりゃ!
そもそも名古屋は『関西』じゃなくね?

筆者はMT Summitの本会(9/19~21)に参加予定なのですが、料金が高すぎる(一番安い早割でも会員:50000円、非会員:60000円)。
しかも、本会の前後の日に行われるチュートリアルやワークショップは、本会に参加する人であっても別料金なんだよね。

半おこ(`ε´)

もっと個人翻訳者が参加しやすい値段設定にして、
MT研究者と翻訳者間で活発に意見交換を行い、
MTをユーザーフレンドリーになるように改善したり、逆に翻訳者の思考やプロセスを取り入れてMTの精度を向上させたりした方が、
両方の業界のために良いのではないか?
と思いますけどね・・・。

現在、筆者は本会(9/19~21)+18日午前のワークショップ「MT for Academic Writing: A hands-on workshop」+懇親会(20日夜)に参加予定です。
18日午後のワークショップ「Language Technologies and Human Translators」にも興味がありましたが、中止になったみたいなので。。
22日午後のJTF主催ワークショップにも興味はありますが、
それに出ると18日午前~22日午後までずっといることになる(しかも間が空く)ので、
ちょっと長過ぎるかな、とも思ったり。。

行く人は、8/7までのお申し込みをオススメするよ!
(それ以降は、参加料金が1~2万上がるようです。)
ちなみにAAMTの会員になった方が、会費(初年度は入会金1000円+年会費5000円で6000円、次年度以降は年会費5000円)払ったとしても安くなるかも。

画像キャプションについての論文です。
"A Hierarchical Approach for Generating Descriptive Image Paragraphs"
http://openaccess.thecvf.com/content_cvpr_2017/papers/Krause_A_Hierarchical_Approach_CVPR_2017_paper.pdf
日本語訳すると、画像の説明文章を生成するための階層的アプローチって感じでしょうか?
前に書いた記事の新しい方法ですね。

この論文の結論部分には、

「我々は実験的に、従来の画像キャプション方法と比較した我々のアプローチの利点を実証し、各領域の知識を段落のキャプションに効果的に移転できる方法を示した。(中略)今後は視覚と言語間の知識移転の機会がさらに増加することが見込まれ、段落を効果的に生成するには視覚的および言語的構成性が引き続きその中心となることが予想される

と書かれてあります(ローズ三浦・訳)。


素人意見かもしれませんが、例えば、
「女の子がリンゴを食べています(女の子がリンゴを食べている画像を大量に見せる)。
男の子が走っています(男の子が走っている画像を大量に見せる)。
では、男の子がリンゴを食べていますとはどのようなことですか?」
質問して、画像を生成させるなど、
視覚と聴覚を組み合わせてAIに教えることはできないのでしょうか?
(人間の子供に教えるのと同じように)

専門家の方からのご意見をお待ちしております。

Google社がコンピュテーショナル リンギストを募集中のようです。

https://careers.google.com/jobs#!t=jo&jid=/google/computational-linguist-nlu-in-machine-minato-tokyo-japan-2624420639&

私が提唱する「ランゲージ・エバンジェリスト」って、この職種に近くないですか?
まぁ、私にはとても務まりませんがwww

WHAT'S NEW?