
AI 一站式短剧/漫剧生成平台
Industrial AI Motion Comic & Video Workbench
AI 漫剧工场 是一个面向短剧、漫剧、动态漫画与影视分镜创作者的 AI 生产工作台,目标是把故事创意快速转化为可预览、可导出、可继续剪辑的视觉资产与视频片段。
项目采用 Script-to-Asset-to-Keyframe 工作流:先完成剧情与分镜,再生成角色/场景资产,随后在 AI工作台中制作关键帧与视频,最后统一预览和导出。
普通电脑安装文件支持windows
Windows : 安装文件https://github.com/yuanzhongqiao/deep-printfilm/archive/refs/tags/PrintFilmPro-V-0.8.03.zip
传统 Text-to-Video 往往难以稳定控制角色、构图和镜头起止画面。AI 漫剧工场引入动画与影视制作中的关键帧思路:
剧情创作阶段用于把故事、小说片段或短剧创意整理为可生产的结构化内容。
场景角色阶段用于沉淀后续画面生成需要使用的核心视觉资产。
AI工作台是关键帧与视频片段制作的核心区域。
制片导出阶段用于集中预览、检查和下载项目成果。
资产管理用于集中查看和调整项目中的提示词资产。
项目默认围绕 GitCC API 提供的文本、图像与视频模型组织工作流:
模型配置可以在应用内调整,适配不同上游模型名称、接口路径和参数。
启动后访问终端输出的本地地址。Vite 开发环境会代理 /api-proxy 到 GitCC API,便于本地调试。
npm run build npm run preview
docker-compose up -d --build docker-compose logs -f docker-compose down
默认通过 3005 端口访问。Compose 会生成 ai-manga-studio:latest 镜像、ai-manga-studio-app 容器和 ai-manga-studio-network 网络。Nginx 会托管前端静态文件,并代理 /api-proxy 到 GitCC API。
docker build -t ai-manga-studio .
docker run -d -p 3005:80 --name ai-manga-studio-app ai-manga-studio
docker logs -f ai-manga-studio-app
docker stop ai-manga-studio-app
npm run electron:dev npm run electron:build npm run electron:build:win
electron:dev:先构建前端,再启动 Electron 窗口。electron:build:使用 electron-builder 生成桌面安装包。AI 漫剧工场 为产品名输出到 release/ 目录。/api-proxy 到 GitCC API。npm install npm run dev npm run build npm run preview npm run electron:dev npm run electron:build docker-compose up -d --build docker-compose down
.
├── App.tsx
├── components/
│ ├── Dashboard.tsx
│ ├── Sidebar.tsx
│ ├── ModelConfig/
│ ├── Onboarding/
│ ├── StageScript/
│ ├── StageAssets/
│ ├── StageDirector/
│ ├── StageExport/
│ └── StagePrompts/
├── electron/
├── public/
├── services/
├── types/
├── types.ts
├── vite.config.ts
├── Dockerfile
├── docker-compose.yaml
└── nginx.conf
传统的散装操作中,提示词的连贯性和资产管理全靠脑子记。上一秒主角穿西装,下一秒就变夹克,为了修这些 Bug,创作者只能在各个工具之间来回复制粘贴。
deep-printfilm 采用的是 Script-to-Asset-to-Keyframe(剧本-资产-关键帧)逻辑。在这个后台里,你可以先输入故事大纲拆成分镜,然后生成角色的基础定妆照和各套服装变体。最后在生成视频片段时,让模型尽量参考这些已经定好的视觉资产。
它就像一个 AI 视频生产流水线的车间主任,不亲自干活,但负责把你乱七八糟的提示词和素材分门别类管好,让每次调用模型时都有统一的参考图,尽量不让前后剧情脱节。
这个工具并没有试图搞个“一键出片”的噱头,而是把工作流切分得很清晰实在:
第一步先搞定文本(剧本和分镜节奏);第二步确立视觉资产(角色、服装和环境概念图);第三步才是真正的生成工作台。在这个核心操作区,所有的镜头都以网格形式管理。你可以为每个镜头生成起始关键帧,再基于关键帧去跑视频。
这种做法最大的好处,是把原本散落在 txt 记事本、图片文件夹和生成记录里的素材,集中到同一个项目里管理。
目前该项目在GitHub上已有接近千星关注,并发布了正式的 Release 版本,属于近期关注度上升较快的新工具。
对于小白用户,开发者提供了基于 Electron 打包的 Windows 桌面端直接安装。但如果你本身有 Docker 部署经验,也可以把它跑在服务器、NAS 或本地开发环境里,它也完全支持 Docker 服务端部署或本地开发环境运行。
不过在部署和使用之前,有几件事需要提前确认:
API 依赖与费用限制:很多人看到“本地部署”会误以为它是免费离线的。实际上,它的文本、图像和视频生成重度依赖第三方 API(默认兼容 GitCC 或 OpenAI 格式)。跑模型是要花钱的,接口的稳定性、计费方式需要你自己去评估。
小心你的项目数据被清空:这个工具把所有的剧情、分镜资产全部存在本地浏览器的 IndexedDB 里。这意味着项目状态主要保存在本地,响应更直接;但生成文本、图像和视频时,相关提示词、图片参考和请求内容仍可能发送到第三方 API,不能简单理解成“完全不上云”,但千万不要随便清理浏览器缓存或站点数据,否则辛辛苦苦建的项目可能瞬间蒸发。
商业化与许可边界:如果你打算用它生成的受版权保护的小说或影视 IP 视频去跑商业流量,务必自行核对模型服务商的使用条款,避免版权坑。
如果你已经跑通过一两次 AI 视频流程,受够了频繁切换窗口的折磨,deep-printfilm 是一个思路很对、能帮你省下大量项目管理精力的提效工具。
但如果你是完全没接触过 API 调用的纯新手,指望下载安装后点个按钮就能吐出一部能赚钱的短剧,那它不适合你。真正的门槛永远不在于工作台的安装,而在于你如何写出好的提示词,以及搞定稳定且高性价比的模型接口。
建议普通用户可以先做个小范围试用,跑通一个几十秒的短片看看效果,再决定要不要把它作为主力的生产工具。
deep-printfilm 真正有用的地方,不是让 AI 突然变得更会拍视频,而是把原本散落的剧本、角色设定、场景参考、关键帧和视频片段放进同一个项目里。对已经折腾过 AI 视频的人来说,这种“把东西管清楚”的能力,反而比多一个生成按钮更实际。
如果你期待的是下载安装后自动生成一部完整短剧,它大概率会让你失望。但如果你已经有自己的剧本、角色设定和生成流程,只是受够了文件夹混乱、提示词散落和镜头前后接不上的问题,那它确实值得试一试。