782 字
4 分钟
[tools] PotPlayer 本地实时字幕与 AI 翻译配置指南

1. 引言#

在观看无字幕的外语视频时,实时翻译工具至关重要。本文将介绍如何通过 PotPlayer 结合 本地 Whisper(本地识别引擎)与 Ollama(本地大模型框架),搭建一套完全脱离互联网运行的“本地实时字幕+翻译”方案。该方案不仅消除了隐私泄露风险,更通过本地算力实现了极低延迟的双语字幕显示。

NOTE

本方案需要有一定的 GPU 算力。

  • NVIDIA 用户:建议使用支持 CUDA 的版本以获得最佳性能。
  • AMD 用户:请务必下载支持 Vulkan 接口的本地 Whisper 版本,以实现硬件加速。

2. 环境准备#

在正式配置前,请确保获取以下必要组件:

2.1 PotPlayer 播放器#

确保安装了最新版的 PotPlayer

2.2 本地 Whisper#

Whisper 是一个开源的语音转文字引擎。建议根据显卡类型选择对应的压缩包。

  • NVIDIA 用户:下载 CUDA 版本,通常配套使用原版或经过转换的 Whisper 模型文件夹。
  • AMD 用户必须下载支持 Vulkan 接口的本地 Whisper 版本
TIP

模型文件说明

  • A卡专属:需要下载特定的 GGML 格式 模型文件(如 ggml-large-v3.binggml-large-v3-turbo.bin)。
  • 推荐选择:强烈建议使用 large-v3-turbo 版本,它在保持高准确度的同时,大幅提升了 A卡的推理速度。

2.3 Ollama 框架#

本地大模型运行环境,用于驱动后续的翻译流程。

ollama
/
ollama
Waiting for api.github.com...
00K
0K
0K
Waiting...

3. 字幕生成:本地 Whisper 配置#

利用 Whisper 模型,PotPlayer 可以直接从视频音频流中提取文本。

  1. 解压引擎:将本地 Whisper 压缩包解压到固定位置。
  2. PotPlayer 设置
    • 右键点击播放器界面 -> 字幕 -> 声音生成字幕(实时)
    • 在设置中选择正确的引擎路径模型文件
    • 勾选开启声音生成字幕(实时)功能。
  3. 测试效果:播放一段外语视频,观察画面底部是否实时出现了原始语言字幕。

4. 本地翻译:Ollama 与模型部署#

识别出原始文本后,需要通过 Ollama 调用专门优化的本地大模型进行翻译。

4.1 部署翻译模型#

推荐使用针对翻译任务优化过的 hy-mt1.5-abliterated 模型:

Terminal window
ollama run huihui_ai/hy-mt1.5-abliterated

4.2 配置翻译插件#

使用开源的 PotPlayer Ollama 翻译扩展插件来实现对接。

yxyxyz6
/
PotPlayer_ollama_Translate
Waiting for api.github.com...
00K
0K
0K
Waiting...

部署步骤

  • 下载上述项目的 .as 插件文件。
  • 将其放入 PotPlayer 安装目录下的 Extension\Translate 文件夹中。
  • 在 PotPlayer 选项 -> 扩展程序 -> 实时字幕翻译 中选中并配置该插件。

5. 总结#

通过整合本地 Whisper 与 Ollama,我们成功在 PotPlayer 中实现了一套高效、隐私且完全离线的实时字幕翻译系统。这套方案代表了目前本地 AI 在多媒体工具领域的典型应用,极大提升了跨语言观影的体验。

IMPORTANT

AI 翻译存在一定的推理延迟(由显卡性能决定),建议在翻译插件设置中合理配置 Prompt,以获得更符合语境的输出。

[tools] PotPlayer 本地实时字幕与 AI 翻译配置指南
https://www.eustia-astraea.top/posts/tools/potplayer-local-subtitle-translation/
作者
mcsl
发布于
2026-04-03
许可协议
CC BY-NC-SA 4.0