K's Atelier

個人的な学習記録

機械翻訳のPost Editing

機械翻訳を鵜呑みにする者は事故を起こす。 - Togetter

大変参考になる,機械翻訳結果の校正ポイント。これはChatGPTやCopilotなどで生成されたプログラムコードにも当てはまると思う。

 

https://twitter.com/bumicchu

上記アカウントの方の発言を転記させていただく。

機械翻訳完璧!みたいな話を読んで心配になりました。 私は、機械翻訳を修正するポストエディット(PE)をしていました。翻訳者の訳文の校正と同じ作業をしますが、機械翻訳のPEの方が大変です。一見滑らかに見えて、トンデモないミスが多いからです。 PEの工程と、機械翻訳のミスを挙げてみます。 ↓

 

PE①原文訳文の数字チェック(致命的)

PE②訳抜けチェック

PE③固有名詞チェック

PE④対訳でクロスチェック、用語統一

PE⑥対訳でクロスチェック、肯定否定

DeepLで数行の文章を翻訳させると,途中で文体が変わることが気になっていた。

日本語訳では「ですます」「である」の混在。やけに砕けた表現の混在。

英訳では,ぱっと見には意味が取れない単語,熟語が出るなど。

「お前の英語能力が低いから単語が分からんのだろ」という指摘もあるかもしれないが,元は自分の書いた日本語文章だし,技術系の文体なので,ぱっと見で意味が通らない単語が出てくるのはやはりおかしい。

 

あと,この方の問題点指摘が非常に貴重なので,技術者として肝に銘じるために転記。

問題点1:行政が機械翻訳を使用する→災害時、誤訳で命を落とすこともあります。

問題点2:顧客向けのコンテンツに機械翻訳を使用する→向いていません。

問題点3:現場の注意書きに機械翻訳を使用する→職場安全を脅かす恐れがあります

問題点4:単にコストカットのために機械翻訳を使用する→安いエンジンだと出力もしかり。修正の手間、リスクも合わせて考えましょう。

誤訳は命に関わる。確かにその通りだ。「AIは責任を取らない」。誰が発言責任を取るのかを自覚しないと危険。

 

プログラムコードの場合は,コンパイラによるチェックや動作チェックを行うことで,ある程度までは間違いを正せる(複雑な要件を入力した場合の漏れや誤解は発生する)。

翻訳は,「コンパイラ=人間」とならざるを得ないので,機械翻訳に対する校正作業負荷が高いのだと思われる。

 

本格的な要件定義に生成AIを適用しよう,となった時にはシステム開発でも機械翻訳と同じ状況が発生するだろう。今までは人間が作ったゴミ文書との戦いだった。今後はそれよりはるかに大量の「生成AIが作ったゴミ文書」と戦うことになるのではないか。