rnishino

IT翻訳者Blog

翻訳、英語、ローカリゼーション、インターナショナリゼーションなどについて書いています。

23 2月

IT翻訳はオワコンか

通訳・翻訳ジャーナル 2017年春号」に去年の翻訳祭で登壇した際のレポート(p.20)が掲載されています。
ありがとうございました。



ところで口調は変わるのだが、同誌に翻訳業界の動向が掲載されていた。2016年に需要が減ったランキングのトップが「コンピュータ(ソフト)」らしい。

15年はMicrosoft Windows 10のリリースがあったので「コンピュータ(ソフト)」の需要が高く、16年はその反動で需要減になったのかもしれない。

という分析が書かれている(p. 66)。

この分野、つまりIT翻訳は、2000年代が需要のピークだったと聞く。それ以降は右肩下がりで、今では業界で「オワコン」(終わったコンテンツ)という扱いをされることも珍しくない。

しかしIT翻訳の需要は本当に減っているのだろうか?
最近はスマートフォンが普及し、誰もがアプリ(ソフト)をダウンロードして使っている。1人1台のスマホ時代に、IT翻訳需要が増えることはあっても、減っているとはとても思えない。

実のところ需要が減ったというのは、「翻訳会社に流れる量が減った」というだけのことなのではないだろうか。

ここ10〜15年くらいで、ソフトウェア開発手法自体が変化してきた。かつては「ウォーターフォール型」が主流で、大きなソフトウェア(例えば上記のWindowsなど)は数年かけて開発された。翻訳は開発終盤でまとめて行われる。つまりある時期に大量の翻訳需要が発生し、数か月かけて「ソフトウェア会社→翻訳会社→翻訳者→翻訳会社→ソフトウェア会社」と納品される。

しかしその後は「アジャイル型」が広がってきており、小さな機能を開発して数日〜数週間程度でリリースする。つまりまとまった量の翻訳需要は出づらく、しかもリリースサイクルが短いため、翻訳会社→翻訳者という時間がかかるフローは採用しにくい。あるとしても少量短納期だ。
アジャイル時代には、ソフトウェア会社で内製したり、直に翻訳者に出したりした方が対応しやすいのだ。

要するに「IT翻訳自体は健在なのだが、時代の変化によって翻訳会社に流れにくくなった」という面があるのではと考える(※)。
逆に言うと、翻訳会社は時代の変化に対応できていないということだ。

現在翻訳業界は「ワード単価」によるビジネスが主流だ。例えば1ワード10円の場合、20ワード訳すと200円ということだ。
以前から言っているが、このワード単価制もモバイルとアジャイルの時代に不向きだ。
スマホのアプリは画面が小さく、文字数は少ない。また文字数を稼げるマニュアルもないことが多い。つまりワード単価では翻訳会社は儲からない。
またアジャイルでは少量短納期のため、翻訳会社はオペレーションにコストがかかり過ぎる。

こういった時代の変化に対応できなければ、翻訳会社におけるIT翻訳需要は減り続けてもおかしくない。


※ ほかにはもちろん機械翻訳の発展などの要因もあるだろう。
22 2月

人間vs機械の対決で考える翻訳品質

先日、韓国で人間と機械(人工知能)の翻訳対決があった。

人間、人工知能と「翻訳対決」で24.5対10の圧勝
http://japan.hani.co.kr/arti/politics/26591.html

結果はタイトルの通り、30点満点中で人間が24.5点、機械が10点だったようだ。

審査の方法は以下の通りである。
対決は人間の翻訳士4人と、人工知能翻訳ソフト3つが同じ課題を翻訳すると、出題者のクァク・ジュンチョル韓国学校通訳翻訳士協会会長をはじめとする協会の専門家3人が点数を付ける方式で行われた。

評価の課題は文学英語→ハングル、ハングル→英語と非文学英語→ハングル、ハングル→英語の4つだったが、人間の翻訳士はインターネット検索を活用して50分間作業し、機械翻訳は誰でも使えるインターネット翻訳サービスに課題を入力して結果を確認する方式だった。


さて、この結果を見て「やっぱりコンピューターに翻訳なんてできないよ。よかった、よかった」と溜飲を下げるだけだったら、残念なことである。

記事中に以下のような論評があるが、私もこの意見に近い。
…シン・ソクファン副社長は「囲碁は勝負が明確なゲームだが、翻訳は勝敗の絶対的な基準があるとは言えない。機械翻訳の有用性を確認する程度の意味」だと話した。


翻訳を評価するにはさまざまな基準があり、どれを採用するかに決まりはない。
この評価基準を考える際に役立つのは、「Garvinの品質5分類」だ。詳しい解説は、JTFジャーナルの「翻訳品質のランチボックス」を参照していただきたい(PDFファイルへのリンク:#283#284)。
簡単にまとめると、世間で「品質」という言葉を使うとき、ほとんどが以下の5つに分類できるというものだ。

  • 超越的: 専門家による主観評価

  • ユーザーベース: エンドユーザーによる主観評価

  • プロダクトベース: 客観指標による評価

  • 価値ベース: 費用対便益による評価

  • 生産ベース: 仕様や要件をどの程度満たしているかによる評価


この分類は同じ次元に並んでいるのではない。そのため互いの関係を整理したのがこの図だ。特に翻訳業界に合わせて作ってある。

JTFJournal_284_p22
<JTFジャーナル#284 p.22より引用>

韓国での対決に用いられた基準は、恐らく審査員の主観評価なので「超越的」だろう。もしあらかじめ客観指標(例:正確さ、スタイル違反など)が設けられていれば「プロダクトベース」も加わる。
いずれにせよ、図の左端にある「評価対象の翻訳成果物」に直接的に矢印が向いている項目(超越的、プロダクトベース、ユーザーベース)を使ったはずだ。

この対決で注意したいのは、50分という作業時間が設けられている点だ。
このルールは果たして公正だろうか?
当然ながら、機械翻訳は数秒もあれば翻訳を完了できる。残りの49分以上は人間を待つということになる。
時間というのはコスト(費用)であるため、もし費用対便益の「価値ベース」も用いるなら、機械が圧勝するだろう。対決で機械は10点しか獲得できなかったが、単位時間あたりの点数を計算すれば、機械の方がはるかに高い。

このように、どの基準を用いるかによって「品質」の良し悪しは違ってくる。

チェーンソーと彫刻刀が同じ土俵の上に上り、木彫対決をしても仕方ないのだ。
「やーいやーい、チェーンソーじゃ、繊細な木彫芸術はできないだろ」という悪態は不毛である。チェーンソーは木を大量に伐採するのに向いているので、その用途に使うべきだろう。
機械翻訳も、短時間にほどほどの訳文を出力するのに向いている。
17 2月

人間を主役にさせる機械翻訳

私はつい最近知ったのだが、Liltという翻訳支援サービスが注目されているようだ。

Lilt
https://www.lilt.com/

翻訳者が翻訳すると、結果が翻訳メモリー(TM)に入った上で、さらにその場で機械翻訳(MT)に学習させられる。いったん学習させておくと、同一ドキュメントの後の方でも機械翻訳の結果として出力される。TMとMTが融合したようなイメージのようだ。

このように機械翻訳を活用しているのだが、いわゆるMT+PE(Machine Translation + Post-edit)とは少し違う。
現在主流なのは、機械翻訳がまとめて訳して出力しておいたテキストを、人間が後編集(Post-edit)する。後編集では文法ミスや変な表現などを修正するのだ。
しかしこれを嫌がるプロ翻訳者は多い。理由はいくつかあると思うが、「機械に使われている」という心理的な面が大きいのではないかと思う。

このLiltがうまいのは、「機械に使われている」という印象を抱かせない点ではないか。
以下にLiltの翻訳エディター画面がある。残念ながら執筆時点でLiltは日本語未対応なので、英仏翻訳で試している。



翻訳エディターには、原文、訳文入力部分、さらに機械翻訳結果が表示される。
翻訳者は原文を見て、それに対応する訳文を入力していく。その際、機械翻訳結果も参照するというのが基本的な進め方である。
利便性を高めているのは、訳文入力時に、図の紫の枠で表示されている部分("exemple")をクリックすると、その単語(訳語)が即座に入力できる点だ。もちろん提示されている単語は並んでいる順番にクリックする必要はない(隣の"les"やさらに隣の"titres"もクリック可能)し、自分で自由に入力してもよい。
また、まとめて機械翻訳結果を入力できるボタン(図中の上矢印ボタン)もある。

使っている技術自体はMT+PEとさほど変わらないが、このように「あくまで人間が主役」という見せ方は大事だと思う。
機械翻訳の活用がなかなか翻訳業界で進まない理由があるとすれば、この点も大きいのではないか。
RSS フィード
記事検索
過去の記事
筆者について
西野 竜太郎
(Ryutaro Nishino)

翻訳者/コンサルタント。合同会社グローバリゼーションデザイン研究所代表社員。ソフトウェアのインターナショナリゼーションやローカリゼーションが専門。

プロフィールや連絡先などについては会社のウェブサイトをご覧ください。
Twitterアカウント
著書
アプリケーションをつくる英語

紙版
『アプリケーションをつくる英語』

電子版
『アプリケーションをつくる英語』
【第4回ブクログ大賞受賞】