Introduction : DeepSeek V4 sait-il vraiment traduire vos documents ?
DeepSeek V4 a fait la une de tous les forums tech dès sa sortie — scores aux benchmarks solides, prix quasi inchangés. Mais les chiffres des benchmarks et la traduction de vrais documents, ce sont deux mondes différents. La question qui revient sans cesse de nos utilisateurs : "V4 vaut-il la peine de changer ? Sur de vrais PDF, contrats et articles universitaires, à quel point V4 surpasse-t-il V3 ? Et comment tient-il face à des modèles phares comme GPT-5.4, Claude 4.7 ou Gemini 3 Pro ?"
Nous avons donc obtenu l'accès à l'API DeepSeek V4 dès le premier jour (à la fois deepseek-v4-pro et deepseek-v4-flash) et mené un test DeepSeek V4 rigoureux en face-à-face :
- 6 modèles, même arène : DeepSeek V4 Pro, V4 Flash, V3.2, GPT-5.4, Claude Opus 4.7, Gemini 3 Pro Preview
- 5 scénarios documentaires réels : articles universitaires, contrats juridiques, documentation technique avec code, prose littéraire, dialogues de manga
- Double évaluation LLM à l'aveugle : GPT-5.4 et Claude Opus 4.7, chacun notant avec des étiquettes mélangées indépendamment
- 5 dimensions d'évaluation : fidélité, fluidité, terminologie, style, préservation du format (échelle 1–5)
Voici le classement complet, notre méthodologie, chaque texte source accompagné des 6 traductions candidates, ainsi que les données de latence et de coût.
En bref (pour les lecteurs pressés)
| Rang | Modèle | Score global | Fidélité | Fluidité | Terminologie | Style | Format | Latence moyenne |
|---|---|---|---|---|---|---|---|---|
| 🥇 1 | GPT-5.4 | 4,68 | 4,7 | 4,7 | 4,6 | 4,5 | 4,9 | 4,5 s |
| 🥈 2 | Claude Opus 4.7 | 4,62 | 4,2 | 4,8 | 4,4 | 4,7 | 5,0 | — |
| 🥉 3 | Gemini 3 Pro Preview | 4,56 | 4,4 | 4,7 | 4,5 | 4,4 | 4,8 | 14,2 s |
| 4 | DeepSeek V4 Pro | 4,38 | 4,4 | 4,4 | 4,4 | 4,3 | 4,4 | 17,1 s |
| 5 | DeepSeek V4 Flash | 4,38 | 4,2 | 4,3 | 4,4 | 4,0 | 5,0 | 4,7 s |
| 6 | DeepSeek V3.2 | 4,26 | 4,3 | 4,1 | 4,3 | 4,0 | 4,6 | 4,6 s |
Résumé en trois phrases :
- DeepSeek V4 apporte une vraie amélioration par rapport à V3.2, mais elle reste modeste (+0,12 sur une échelle de 5). Il reste derrière GPT-5.4 et Claude 4.7.
- V4 Pro et V4 Flash sont à égalité au classement général. Pro bénéficie d'une profondeur sémantique portée par le raisonnement, mais Flash est 4× plus rapide et bien moins cher — Flash suffit largement pour la plupart des utilisateurs.
- DeepSeek reste en retrait sur le chinois vers d'autres langues, surtout pour le littéraire et le manga. En revanche, sur la documentation technique en chinois, même DeepSeek V3.2 a battu tous les modèles phares.
1. Méthodologie : comment nous avons assuré l'équité
1.1 Les 6 modèles
| Modèle ID | Type | Point d'accès |
|---|---|---|
deepseek-v4-pro | Nouveau modèle phare (raisonnement) | API officielle DeepSeek |
deepseek-v4-flash | Nouveau modèle léger (raisonnement superficiel) | API officielle DeepSeek |
deepseek-v3.2 | Génération précédente | API proxy |
gpt-5.4 | Modèle phare actuel d'OpenAI | API proxy |
claude-opus-4-7 | Modèle phare d'Anthropic | En conversation |
gemini-3-pro-preview-r | Dernier aperçu du modèle phare de Google | API proxy |
1.2 Les 5 scénarios (extraits courts, chacun ciblant une faiblesse)
| Scénario | Sens | Difficulté |
|---|---|---|
| Résumé d'article académique | EN → ZH | Jargon technique, voix passive, registre formel |
| Clause de contrat juridique | EN → ZH | Phrase longue, précision, langage juridique |
| Documentation technique avec code en ligne | EN → ZH | Conserver le code en ligne, identifiants, chiffres |
| Prose littéraire (Lu Xun, Mon vieux pays natal) | ZH → EN | Rythme, imagerie, ton d'inspiration classique |
| Dialogue de manga (shōnen) | JA → EN | Registre familier, particules finales japonaises |
1.3 Un prompt unifié et minimaliste
Pour éliminer tout biais d'ingénierie de prompt, chaque modèle a reçu exactement la même instruction minimale :
System:
You are a professional document translator. Translate the following text
from {SRC} to {TGT}. Preserve all inline code snippets (text inside backticks),
identifiers, numbers, mathematical notation, and paragraph breaks exactly
as they appear in the source. Output only the translation text, with no
explanations, no notes, and no additional commentary.
User: {source text}
Tous les modèles : temperature=0.3, max_tokens=4096. Identiques.
1.4 Double jugement à l'aveugle
Un seul modèle juge favoriserait les traductions issues de sa propre famille, nous avons donc utilisé deux juges :
- Juge 1 : GPT-5.4 (temperature=0, sortie JSON)
- Juge 2 : Claude Opus 4.7
Pour chaque scénario, les 6 candidats ont été mélangés avec deux graines aléatoires différentes — chaque juge voyait un ordre d'étiquettes différent (A / B / C / D / E / F) et ignorait quel modèle avait produit quelle sortie. Score final = moyenne des deux juges sur les 5 dimensions.
2. Les 5 scénarios, un par un
Scénario 1 : Résumé d'article académique (EN → ZH)
Source : We propose a novel sparse attention mechanism that reduces memory complexity from O(n^2) to O(n log n) while preserving the expressiveness of full self-attention. Empirical results on GLUE benchmarks show our method retains 98.7% of the baseline performance at 42% of the memory cost, with negligible impact on downstream task accuracy.
| Modèle | Traduction |
|---|---|
| DeepSeek V4 Pro | 我们提出了一种新颖的稀疏注意力机制,将内存复杂度从 O(n^2) 降低至 O(n log n),同时保留了全自注意力的表达能力。在 GLUE 基准上的实证结果表明,我们的方法以 42% 的内存开销保持了 98.7% 的基线性能,且对下游任务准确率的影响可忽略不计。 |
| DeepSeek V4 Flash | 我们提出了一种新颖的稀疏注意力机制,将内存复杂度从 O(n^2) 降低至 O(n log n),同时保持完整自注意力的表达能力。在 GLUE 基准上的实验结果表明,我们的方法在仅消耗 42% 内存成本的情况下,保留了基线模型 98.7% 的性能,且对下游任务准确率的影响可忽略不计。 |
| DeepSeek V3.2 | 我们提出了一种新颖的稀疏注意力机制,将内存复杂度从O(n²)降低至O(n log n),同时保持了完整自注意力的表达能力。在GLUE基准测试上的实证结果表明,该方法仅以42%的内存成本即保留了基线模型98.7%的性能,对下游任务准确率的影响微乎其微。 |
| GPT-5.4 | 我们提出了一种新颖的稀疏注意力机制,在保留完整自注意力表达能力的同时,将内存复杂度从 O(n^2) 降低到 O(n log n)。在 GLUE 基准测试上的实证结果表明,我们的方法以 42% 的内存成本保留了基线性能的 98.7%,对下游任务准确率的影响可以忽略不计。 |
| Claude Opus 4.7 | 我们提出一种新颖的稀疏注意力机制,将内存复杂度从 O(n^2) 降低至 O(n log n),同时保留了完整自注意力的表达能力。在 GLUE 基准测试上的实证结果表明,我们的方法在仅占基线 42% 内存开销的情况下保留了 98.7% 的性能,对下游任务精度的影响可以忽略不计。 |
| Gemini 3 Pro Preview | 我们提出了一种新颖的稀疏注意力机制,将内存复杂度从 O(n^2) 降低至 O(n log n),同时保留了完整自注意力的表达能力。在 GLUE 基准测试上的实验结果表明,我们的方法在仅需 42% 内存开销的情况下保留了 98.7% 的基线性能,且对下游任务准确率的影响可忽略不计。 |
🏆 Triple égalité : DeepSeek V4 Pro / GPT-5.4 / Gemini 3 Pro (tous à 4,9/5)
- L'écriture académique est le terrain de prédilection de DeepSeek V4 Pro. Il y fait jeu égal avec GPT-5.4.
- La seule pénalité nette est allée à V3.2 — il a silencieusement transformé
O(n^2)en exposant UnicodeO(n²), un petit écart de format. C'est aussi l'amélioration la plus visible de V4 par rapport à V3.2 : V4 laisse désormais la notation mathématique exactement telle qu'écrite. - Le "精度" de Claude au lieu de "准确率" est un synonyme acceptable ; pas de pénalité.
Scénario 2 : Clause de contrat juridique (EN → ZH)
Source : The Licensor hereby grants to the Licensee a non-exclusive, non-transferable, revocable license to use the Software solely for internal business purposes, provided that the Licensee shall not, directly or indirectly, reverse-engineer, decompile, or disassemble the Software in whole or in part, except to the extent such restriction is expressly prohibited by applicable law.
| Modèle | Traduction |
|---|---|
| DeepSeek V4 Pro | 许可方特此授予被许可方一项非排他性、不可转让、可撤销的许可,允许其仅为内部业务目的使用本软件,但被许可方不得直接或间接对本软件的全部或部分进行逆向工程、反编译或反汇编,除非适用法律明确禁止此类限制。 |
| DeepSeek V4 Flash | 许可方特此授予被许可方一项非独占、不可转让、可撤销的许可,允许其仅为内部业务目的使用本软件,但被许可方不得直接或间接地对本软件的全部或部分进行反向工程、反编译或反汇编,除非适用法律明确禁止此类限制。 |
| DeepSeek V3.2 | 许可方在此授予被许可方一项非排他性、不可转让、可撤销的许可,允许被许可方仅出于内部业务目的使用本软件,但被许可方不得直接或间接对本软件进行全部或部分的反向工程、反编译或反汇编,除非适用法律明确禁止此类限制。 |
| GPT-5.4 | 许可方特此授予被许可方一项非排他性、不可转让、可撤销的许可,仅可将本软件用于内部业务目的,前提是被许可方不得直接或间接对本软件全部或部分进行逆向工程、反编译或反汇编,但适用法律明确禁止此类限制的范围除外。 |
| Claude Opus 4.7 | 许可方特此授予被许可方一项非独占性、不可转让、可撤销的许可,允许其仅出于内部业务目的使用本软件;但被许可方不得直接或间接地对本软件的全部或任何部分进行反向工程、反编译或反汇编,除非适用法律明确禁止作出此类限制。 |
| Gemini 3 Pro Preview | 许可方特此授予被许可方一项非排他、不可转让、可撤销的许可,允许其仅为内部业务目的使用软件,前提是被许可方不得直接或间接地对软件的全部或部分进行逆向工程、反编译或反汇编,除非适用法律明确禁止此类限制。 |
🏆 Gagnant : GPT-5.4 (5,0/5 parfait)
- La traduction juridique se joue sur la préservation de la structure conditionnelle. Le texte source contient "provided that ... except to the extent ..." — deux conditions imbriquées.
- Seul GPT-5.4 a rendu "provided that" par "前提是" et "except to the extent" par "但...除外", préservant ainsi pleinement la structure concession conditionnelle + clause d'exception.
- Tous les autres modèles ont réduit "provided that" à un simple "但", perdant la force de la concession conditionnelle — sans gravité pour une lecture courante, mais un avocat spécialisé en contrats sourcillerait.
- DeepSeek V4 Pro et Flash ont utilisé des termes juridiques valables (tant "非排他性" que "非独占" sont juridiquement recevables), mais ont perdu des points sur la préservation structurelle.
Scénario 3 : Documentation technique avec code en ligne (EN → ZH)
Source : Set
cache.ttlto a value greater than0(in seconds) to enable persistent caching. Whencache.ttl=-1, the cache never expires. Note: enablingcache.strict_modebypasses the TTL and forces revalidation on every request. Seedocs/caching.mdfor advanced patterns.
| Modèle | Traduction |
|---|---|
| DeepSeek V4 Pro | 将 cache.ttl 设置为大于 0 的值(单位:秒)以启用持久缓存。当 cache.ttl=-1 时,缓存永不过期。注意:启用 cache.strict_mode 将绕过 TTL 并强制每次请求进行重新验证。请参阅 docs/caching.md 了解高级模式。 |
| DeepSeek V4 Flash | 将 cache.ttl 设置为大于 0 的值(以秒为单位)以启用持久缓存。当 cache.ttl=-1 时,缓存永不过期。注意:启用 cache.strict_mode 会绕过 TTL 并强制在每个请求时重新验证。高级模式请参见 docs/caching.md。 |
| DeepSeek V3.2 | 将 cache.ttl 设置为大于 0 的值(单位为秒)以启用持久化缓存。当 cache.ttl=-1 时,缓存永不过期。注意:启用 cache.strict_mode 将绕过 TTL 设置,强制每次请求时重新验证缓存。高级用法请参阅 docs/caching.md。 |
| GPT-5.4 | 将 cache.ttl 设置为大于 0 的值(以秒为单位)以启用持久缓存。当 cache.ttl=-1 时,缓存永不过期。注意:启用 cache.strict_mode 会绕过 TTL,并在每次请求时强制重新验证。有关高级模式,请参阅 docs/caching.md。 |
| Claude Opus 4.7 | 将 cache.ttl 设置为大于 0 的值(单位:秒)可启用持久化缓存。当 cache.ttl=-1 时,缓存永不过期。注意:启用 cache.strict_mode 会绕过 TTL,并在每次请求时强制重新校验。进阶用法请参见 docs/caching.md。 |
| Gemini 3 Pro Preview | 将 cache.ttl 设置为大于 0 的值(以秒为单位)以启用持久化缓存。当 cache.ttl=-1 时,缓存永不过期。注意:启用 cache.strict_mode 会绕过 TTL 并在每次请求时强制重新验证。有关高级模式,请参阅 docs/caching.md。 |
🏆 Gagnant : DeepSeek V3.2 (4,8/5)
La plus grande surprise de cette évaluation : la génération précédente V3.2 a battu tous les modèles phares sur la documentation technique. Pourquoi :
- Les 6 modèles ont parfaitement conservé le code en ligne (
cache.ttl, etc.) — aucun écart à ce niveau. - La fluidité chinoise et le vocabulaire technique de V3.2 sont ceux qui ressemblent le plus à ce qu'un ingénieur chinois écrirait réellement.
- V4 Pro et V4 Flash ont chacun perdu un point en fluidité — le "强制每次请求进行重新验证" de V4 Pro est un peu raide ; le "在每个请求时" de Flash sonne comme du chinois traduit (la forme naturelle est "每次请求").
- Notre lecture : la maîtrise chinoise de la rédaction technique chez DeepSeek a culminé dès V3.2. Les progrès de V4 se situent ailleurs (raisonnement, code), et la chaîne de raisonnement ajoute en fait une légère friction dans ce scénario.
Scénario 4 : Prose littéraire — Mon vieux pays natal de Lu Xun (ZH → EN)
Source : 我冒了严寒,回到相隔二千余里,别了二十余年的故乡去。时候既然是深冬;渐近故乡时,天气又阴晦了,冷风吹进船舱中,呜呜的响,从篷隙向外一望,苍黄的天底下,远近横着几个萧索的荒村,没有一些活气。
| Modèle | Traduction |
|---|---|
| DeepSeek V4 Pro | Braving the bitter cold, I traveled back to my hometown, which lay over two thousand li away and from which I had been separated for more than twenty years. It was deep winter. As I approached my hometown, the weather turned gloomy again. A cold wind blew into the cabin of the boat, moaning. Through a chink in the awning, I looked out and saw a few desolate, lifeless villages lying scattered far and near under a pale yellow sky. |
| DeepSeek V4 Flash | Braving the bitter cold, I traveled back to my hometown, a place I had left over twenty years ago, more than a thousand li away. It was already deep winter; as we drew near my hometown, the weather turned gloomy, and the cold wind whistled through the cabin. Peering out from under the awning, I could see a bleak, yellowish sky, with several desolate villages scattered horizontally here and there, devoid of any signs of life. |
| DeepSeek V3.2 | Braving the bitter cold, I traveled more than seven hundred miles back to the old home I had left over twenty years ago. It was late winter. As we drew near my former home the day became overcast and a cold wind blew into the cabin of our boat, while all one could see through the chinks in our bamboo awning were a few desolate villages, void of any sign of life, scattered far and near under the somber yellow sky. |
| GPT-5.4 | Braving the severe cold, I returned to my hometown, more than two thousand li away and from which I had been separated for more than twenty years. It was already deep winter; and as I gradually drew near my hometown, the weather grew overcast again. The cold wind blew into the cabin, making a whistling sound. Looking out through a crack in the awning, beneath the dusky yellow sky, there lay here and there a few desolate villages, barren and lifeless. |
| Claude Opus 4.7 | Braving the bitter cold, I returned to the home I had not seen in over twenty years, more than two thousand li away. It was already deep winter; as I drew near, the sky grew overcast, and a cold wind moaned through the cabin. Peering out through a gap in the awning, I saw, beneath the sallow sky, a few desolate villages scattered near and far, without a trace of life. |
| Gemini 3 Pro Preview | Braving the bitter cold, I returned to my hometown, over two thousand li away, which I had left more than twenty years ago. It was late winter; as I drew closer to my hometown, the weather turned gloomy. Cold winds blew into the cabin, howling. Looking out through the chinks in the awning, under a pale yellow sky, scattered far and near lay a few desolate, barren villages, devoid of any sign of life. |
🏆 Gagnant : Claude Opus 4.7 (4,7/5)
- La traduction littéraire est affaire de voix, d'image et de rythme. Le "sallow sky" de Claude pour 苍黄 est le mot le plus soigneusement choisi de toute la manche — il capte cette qualité maladive, jaunâtre, que porte le chinois. "moaned through the cabin" surpasse "whistling" et "howling" pour rendre la désolation de 呜呜.
- DeepSeek V4 Pro s'en tire bien aussi (4,6) — "moaning", "chink in the awning" sont des choix littéraires qui montrent que V4 gagne réellement du terrain sur la prose littéraire par rapport à V3.
- DeepSeek V4 Flash s'est le plus effondré (3,7, bon dernier) :
- A traduit "二千余里" par "more than a thousand li" — une erreur factuelle.
- "scattered horizontally" est un calque rigide de 横着 qui sonne artificiellement en anglais.
- DeepSeek V3.2 obtient 4,4 et semble reproduire la traduction canonique de Yang Xianyi et Gladys Yang ("seven hundred miles... void of any sign of life... bamboo awning" sont pour ainsi dire cités). Aux lecteurs de juger si c'est de la "mémorisation" ou de la "traduction".
Scénario 5 : Dialogue de manga (JA → EN)
Source : 「くそっ…まだだ、まだ終わっちゃいねぇ!」 「お前はもう限界だろう。素直に引き下がれ。」 「うるせぇ!守りたいもんがある限り、俺は何度でも立ち上がるんだよ!」
| Modèle | Traduction |
|---|---|
| DeepSeek V4 Pro | 「Damn it... Not yet, it's not over yet!」 「You're already at your limit. Just back down gracefully.」 「Shut up! As long as I have something to protect, I'll get back up as many times as it takes!」 |
| DeepSeek V4 Flash | "Dammit... Not yet, it's not over yet!" "You're at your limit. Just back down obediently." "Shut up! As long as there's something I want to protect, I'll get up as many times as it takes!" |
| DeepSeek V3.2 | "Damn it... not yet, it's not over yet!" "You've already reached your limit. Just back down honestly." "Shut up! As long as there's something I want to protect, I'll get back up as many times as it takes!" |
| GPT-5.4 | "Damn it... not yet, it's not over yet!" "You've already reached your limit. Back down quietly." "Shut up! As long as there's something I want to protect, I'll get back up as many times as it takes!" |
| Claude Opus 4.7 | "Damn it... not yet—it's not over yet!" "You're already past your limit. Just back down, nice and quiet." "Shut up! As long as there's something I want to protect, I'll stand back up as many times as it takes!" |
| Gemini 3 Pro Preview | "Damn it... not yet, it's not over yet!" "You're already at your limit. Just back down." "Shut up! As long as I have something to protect, I'll stand up as many times as it takes!" |
🏆 Gagnants ex aequo : GPT-5.4 / Gemini 3 Pro (tous deux à 4,5/5)
Ce scénario a révélé un comportement très intéressant de DeepSeek V4 Pro :
🚨 V4 Pro a conservé tels quels les crochets japonais 「」 dans sa sortie anglaise. C'est une erreur de format flagrante — en traduction vers l'anglais, ils devraient devenir " (ou "). V4 Pro a probablement été "trop zélé" pendant sa phase de raisonnement, interprétant "préserver le format" comme "préserver les caractères de ponctuation". Son score de format est tombé à 2/5, tirant son score global à 3,1 — dernier de ce scénario.
Un vrai bug qui mérite d'être signalé à l'équipe DeepSeek : les modèles à raisonnement qui préservent trop timidement le format source, y compris la ponctuation qui ne devrait pas survivre à la traduction.
- Tous les autres modèles ont géré les guillemets correctement.
- Sur les particules finales, le "nice and quiet" de Claude capture le mieux le "retire-toi bien sagement" de 素直に引き下がれ. V4 Flash et V3.2 ont opté pour le littéral "obediently/honestly", qui sonne comme du japonais traduit.
- "うるせぇ!" → "Shut up!" partout — correct.
3. Latence, tokens et coût
| Modèle | Latence moyenne | Tokens de sortie moyens | Tokens de raisonnement | Caractéristiques |
|---|---|---|---|---|
| DeepSeek V4 Flash | 4,7 s | 247 | 174 | Raisonnement superficiel, meilleur rapport qualité-prix de la famille V4 |
| DeepSeek V3.2 | 4,6 s | 73 | 0 | Sans raisonnement, valeur sûre |
| GPT-5.4 | 4,5 s | 85 | 0 | Raisonnement masqué, le plus équilibré |
| Gemini 3 Pro Preview | 14,2 s | 844 | 767 | Raisonnement intensif, lent mais solide |
| DeepSeek V4 Pro | 17,1 s | 562 | 488 | Raisonnement intensif, le plus lent du test |
| Claude Opus 4.7 | — | — | — | Non appelé via API ; chiffres tirés des spécifications publiques |
Points saillants :
- V4 Pro est environ 4× plus lent que V4 Flash, mais sans le moindre point de qualité en plus (4,38 contre 4,38). Pour la plupart des tâches de traduction, Flash est amplement suffisant ; Pro ne se justifie que sur les tâches à contexte long et raisonnement profond.
- Gemini 3 Pro Preview paie la facture de raisonnement la plus lourde (767 tokens de raisonnement en moyenne), mais ça paie — 3e au classement général.
- GPT-5.4 est le point d'équilibre latence/qualité : 4,5 s de réponse, aucun token de raisonnement exposé, 1er au classement général.
⚠️ Une anecdote de benchmark avec
bun: nous avons d'abord lancé notre script avec lefetchdebunet DeepSeek V4 affichait systématiquement des latences de 170–250 ms — absurdement rapides. En passant aufetchde Node, les valeurs attendues de 9–35 s sont revenues. Nous soupçonnons Bun de mal mesurerperformance.now()sur certaines réponses en streaming. Toutes les latences de cet article proviennent de Node.
4. Quel modèle choisir concrètement ?
Sur la base de nos tests à 6 modèles, voici notre guide de choix par cas d'usage :
📜 Contrats juridiques, documents réglementaires
Optez pour GPT-5.4. Le seul modèle qui préserve de façon fiable les structures conditionnelles imbriquées. Une conditionnelle mal rendue peut invalider toute une clause.
🎓 Articles universitaires, rapports techniques
Triple égalité : GPT-5.4 / Gemini 3 Pro / DeepSeek V4 Pro. Si vous êtes sensible au coût et traduisez vers le chinois, DeepSeek V4 Pro offre le meilleur rapport qualité-prix dans cette catégorie.
💻 Documentation technique en chinois, manuels d'API, Markdown
DeepSeek V3.2 ou V4 Flash suffisent largement. L'écriture technique en chinois est le point fort de DeepSeek depuis V3.2 — V4 Pro paraît en fait un peu plus raide, la chaîne de raisonnement complexifiant inutilement une prose documentaire simple. Un rare cas où un modèle plus ancien est le bon choix.
📖 Traduction littéraire, romans, essais
Claude Opus 4.7 est le choix. Meilleur goût lexical et meilleur rythme. DeepSeek V4 Pro est 2e — un sommet historique pour DeepSeek sur le contenu littéraire. Évitez DeepSeek V4 Flash : l'erreur factuelle littérale "more than a thousand li" est éliminatoire.
🎌 Manga, light novels, contenus ACGN
GPT-5.4 ou Gemini 3 Pro. DeepSeek V4 Pro a un "bug des crochets" clair en JP → EN — ne l'utilisez pas pour la localisation de mangas tant que DeepSeek n'aura pas publié un correctif.
5. Verdict : DeepSeek V4 vaut-il la peine de migrer ?
✅ Oui, si…
- Votre cas d'usage principal est la traduction universitaire ou juridique vers le chinois — V4 Pro n'est qu'à 0,3 derrière GPT-5.4, pour une fraction du prix.
- Vous êtes sensible au budget ou à la latence — V4 Flash a égalé le score global de V4 Pro avec 4,7 s de latence, le gagnant discret de cette évaluation.
- Vous traitez des tâches de raisonnement à contexte long — la chaîne de raisonnement de V4 Pro représente une vraie marche en avant par rapport à V3.2.
⚠️ Patientez, si…
- Votre cas d'usage principal est le manga ou les light novels — attendez que DeepSeek corrige le bug de préservation des crochets.
- Vous faites de la traduction littéraire haut de gamme — Claude et V4 Pro fonctionnent tous deux, mais Claude conserve un meilleur goût lexical.
- Vous valorisez "le plus fiable" plus que "le moins cher" — GPT-5.4 est 1er au classement général avec le meilleur équilibre latence/qualité.
Testez-le sur vos propres documents avec BelinDoc
Cette évaluation s'appuie sur 5 courts extraits. Vos documents sont probablement plus longs et plus complexes — contrats à clauses numérotées, articles avec formules et figures, mangas avec notes en marge. Les conclusions tirées d'échantillons courts ne se transposent pas toujours à 100 % sur de vrais fichiers.
La meilleure façon de décider : téléversez votre propre document et comparez.
👉 Téléversez votre PDF / EPUB / Word et lancez la traduction
BelinDoc vous permet de changer de modèle de traduction à la volée, préserve la mise en page d'origine et permet de comparer plusieurs modèles sur un même fichier à partir d'un seul envoi.
🔗 Lectures complémentaires
- [Évaluation] 📊 Test de GPT-5.2 en traduction de documents
- [Évaluation] 📊 Test de performance de Gemini 3 Pro en traduction
- [Évaluation] 📊 GPT-5 vs Gemini 2.5 — Benchmark 5 scénarios
- [Guide] 🎯 Guide de sélection des modèles d'IA par type de document