782 字
4 分钟
[tools] PotPlayer 本地实时字幕与 AI 翻译配置指南
1. 引言
在观看无字幕的外语视频时,实时翻译工具至关重要。本文将介绍如何通过 PotPlayer 结合 本地 Whisper(本地识别引擎)与 Ollama(本地大模型框架),搭建一套完全脱离互联网运行的“本地实时字幕+翻译”方案。该方案不仅消除了隐私泄露风险,更通过本地算力实现了极低延迟的双语字幕显示。
NOTE本方案需要有一定的 GPU 算力。
- NVIDIA 用户:建议使用支持 CUDA 的版本以获得最佳性能。
- AMD 用户:请务必下载支持 Vulkan 接口的本地 Whisper 版本,以实现硬件加速。
2. 环境准备
在正式配置前,请确保获取以下必要组件:
2.1 PotPlayer 播放器
确保安装了最新版的 PotPlayer。
2.2 本地 Whisper
Whisper 是一个开源的语音转文字引擎。建议根据显卡类型选择对应的压缩包。
- NVIDIA 用户:下载 CUDA 版本,通常配套使用原版或经过转换的 Whisper 模型文件夹。
- AMD 用户:必须下载支持 Vulkan 接口的本地 Whisper 版本。
TIP模型文件说明:
- A卡专属:需要下载特定的 GGML 格式 模型文件(如
ggml-large-v3.bin或ggml-large-v3-turbo.bin)。- 推荐选择:强烈建议使用
large-v3-turbo版本,它在保持高准确度的同时,大幅提升了 A卡的推理速度。
2.3 Ollama 框架
本地大模型运行环境,用于驱动后续的翻译流程。
Waiting for api.github.com...
3. 字幕生成:本地 Whisper 配置
利用 Whisper 模型,PotPlayer 可以直接从视频音频流中提取文本。
- 解压引擎:将本地 Whisper 压缩包解压到固定位置。
- PotPlayer 设置:
- 右键点击播放器界面 ->
字幕->声音生成字幕(实时)。 - 在设置中选择正确的
引擎路径和模型文件。 - 勾选开启
声音生成字幕(实时)功能。
- 右键点击播放器界面 ->
- 测试效果:播放一段外语视频,观察画面底部是否实时出现了原始语言字幕。
4. 本地翻译:Ollama 与模型部署
识别出原始文本后,需要通过 Ollama 调用专门优化的本地大模型进行翻译。
4.1 部署翻译模型
推荐使用针对翻译任务优化过的 hy-mt1.5-abliterated 模型:
ollama run huihui_ai/hy-mt1.5-abliterated4.2 配置翻译插件
使用开源的 PotPlayer Ollama 翻译扩展插件来实现对接。
Waiting for api.github.com...
部署步骤:
- 下载上述项目的
.as插件文件。 - 将其放入 PotPlayer 安装目录下的
Extension\Translate文件夹中。 - 在 PotPlayer
选项->扩展程序->实时字幕翻译中选中并配置该插件。
5. 总结
通过整合本地 Whisper 与 Ollama,我们成功在 PotPlayer 中实现了一套高效、隐私且完全离线的实时字幕翻译系统。这套方案代表了目前本地 AI 在多媒体工具领域的典型应用,极大提升了跨语言观影的体验。
IMPORTANTAI 翻译存在一定的推理延迟(由显卡性能决定),建议在翻译插件设置中合理配置 Prompt,以获得更符合语境的输出。
[tools] PotPlayer 本地实时字幕与 AI 翻译配置指南
https://www.eustia-astraea.top/posts/tools/potplayer-local-subtitle-translation/