360纳米AI上新,接入“Seedance1.5pro”、“可灵2.6、可灵O1”和“万相2.6”等模型
本帖最后由 最爱Windows预览版 于 2025-12-31 11:53 编辑360纳米AI接入了豆包、即梦、可灵和通义万相发布的最新模型,分别是“Doubao-Seed-1.8(豆包大模型1.8)”、“Seedream 4.5(即梦4.5)”、“Seedance1.5Pro(即梦3.5Pro)”、“Kling-Video-O1(可灵O1)”、“Kling-V2-6(可灵2.6)”和“Wan2.6(通义万相2.6)”。以下是详细信息:
一、接入“Doubao-Seed-1.8(豆包大模型1.8)”模型
(一)模型特点
1.更强Agent能力:Tool Use能力、复杂指令遵循能力、OS Agent能力都实现了大幅增强。
2.多模态理解升级:大幅提升了视觉理解的基础能力,可以低帧率理解超长视频。此外在视频运动理解、复杂空间理解、文档结构化解析能力上也都有所提升。
3.原生支持智能上下文管理:可以配置上下文压缩策略,当任务轮次过长时,模型会根据策略智能清除低价值的历史工具调用信息,确保多步骤任务稳定完成。
(二)使用入口
1.点击“大模型”功能,选择“豆包(Seed-1.8)”模型。
2.点击“创建智能体”功能,在“模型选择”部分选择“Doubao-seed-1.8”模型,支持配置MCP工具。
二、接入“Seedream 4.5(即梦4.5)”模型
(一)模型特点
豆包 Seedream 4.5 是豆包最新的图像多模态模型,整合了文生图、图生图、组图输出等能力,融合常识和推理能力。相比 9 月发布的前代模型 Seedream 4.0,生成效果大幅提升,上个版本“小人脸与小字崩坏、一致性不足、多参考图混淆”等核心短板均得到大幅改善。
💡 原图保持能力
最大化保持原图的人脸、光影与色调、画面细节,具备专业修图软件的真实质感
✨ 海报、Logo 设计排版能力
专业级的构图和排版能力,小字清晰可辨,适合海报、品牌视觉等多种设计场景
🌟 多图组合能力
在多张输入图像中精准识别锁定元素,实现可控的多图一致生成体验
(二)使用入口
纳米AI中“AI图片创作”功能暂未接入“Seedream 4.5(即梦4.5)”模型,上线接入了即梦4.5模型的“豆包 seedream 4.5图像创作 (免key版)”MCP 服务。
“豆包 seedream 4.5图像创作 (免key版)”MCP 服务支持“文生图”、“图生单图”和“图生多图”。分辨率参数默认值为2K,最高支持4K分辨率。最多接受10张参考图,一次输入的参考图+输出的图片数量<15张。
配置“豆包 seedream 4.5图像创作 (免key版)”MCP 服务教程:
1.安装MCP工具:在纳米AI平台“智能体创建”页面中,找到“豆包 seedream 4.5”并点击安装。
2.配置角色提示词(Prompt):在创建智能体时,于“角色介绍”中填写智能体设定(系统提示词),在提示词中填写何时引用该MCP工具,何时引用。敲“/”符号,可引用已配置的MCP工具。
3.调用与生成:在智能体对话过程中,用户只需输入文本内容或单张/多张图片,系统将自动调用MCP进行图像创作。
三、接入“Seedance1.5Pro(即梦3.5Pro)”模型
(一)模型特点
Seedance 1.5 pro 是豆包大模型团队推出的新一代专业级音画同生视频模型。它在继承前代多镜头叙事与高清生成能力的基础上,原生支持音视频一体输出,致力于提供画面、人声、音乐、音效的全链路同步创作体验。同时,模型内置首尾帧功能,创作者只需设定视频的起始与结束画面,即可精准锁定视频的风格、构图与角色,并由此驱动模型生成帧间流畅自然的动态影像。音画同生,结合首尾帧控制,Seedance 1.5 pro显著提升了专业视频创作的效率、可控性与艺术表现力。
Seedance 1.5 Pro 聚焦「视频 + 音频一体化生成」的可用性与稳定性提升。在保持高画面美感的基础上,强化叙事连贯、人物/主体保持、物理一致性,并新增/增强环境音、动作拟音、情绪音乐与口型/对白相关的音画匹配能力。
(二)使用入口
纳米AI中“AI视频创作”功能暂未接入“Seedance1.5Pro(即梦3.5Pro)”模型,上线接入了即梦3.5Pro模型的“即梦 视频生成”MCP 服务。该MCP服务提供的工具如下:
1.上线“即梦3.5图生视频”工具
可以调节时长参数(4s-12s)、分辨率参数(可选,720p)、文本提示词参数、是否开启生音效参数(可选,true或false)和比例参数。
2.上线“即梦3.5首尾帧生视频”工具
可以调节时长参数(4s-12s)、分辨率参数(可选,720p)、文本提示词参数、首帧图像Url参数、尾帧图像Urls参数、是否开启音效参数(可选,true或false)和比例参数。
3.上线“即梦3.5图生视频”工具
可以调节时长参数(4s-12s)、分辨率参数(可选,720p)、文本提示词参数、是否开启音效参数(可选,true或false)和比例参数。
配置“即梦 视频生成”MCP 服务教程:
1.安装MCP工具:在纳米AI平台“智能体创建”页面中,找到“即梦 视频生成”并点击安装。
2.配置角色提示词(Prompt):在创建智能体时,于“角色介绍”中填写智能体设定(系统提示词),在提示词中填写何时引用该MCP工具,何时引用。敲“/”符号,可引用已配置的MCP工具。
3.调用与生成:在智能体对话过程中,用户只需输入文本内容和参考图片,系统将自动调用MCP进行视频创作。
四、接入“Kling-Video-O1(可灵O1)”模型
(一)模型特点
全球首个统一多模态视频模型:可灵·视频O1模型,首次在视频生成领域,将参考生视频、文生视频、首尾帧生视频、视频内容增删、视频修改变换、风格重绘、镜头延展等多种任务,融合于大一统模型之中。你无需在多个模型及工具间跳转,即可一站式完成从灵感到生成、从生成到修改的全部创作。
全新创作引擎,一站式完成全部创作:依托统一模型的深层语义理解力,你上传的图片、视频、主体、文字 -- 在可灵O1眼中,皆是指令。O1模型打破模态的限制,可综合理解你上传的一张照片、一段视频或主体(一个角色的不同视角),精准生成视频的各种细节。
具体来说:
图片/主体参考:支持参考图片/主体里的角色/道具/场景等多种元素,灵活生成创意视频。
指令变换:视频增加内容、视频删除内容、切换景别/视角。还能进行多种视频修改任务,例如修改视频主体、修改视频背景、修改视频局部、修改视频风格、修改物体颜色、修改视频天气等等。
视频参考:支持参考视频内容,进行生成上一个镜头/下一个镜头,也可以参考视频动作/运镜,进行创意生成。
首尾帧、文生视频等能力也一并支持。
(二)使用入口
纳米AI中“AI视频创作”功能暂未接入“Kling-Video-O1(可灵O1)”模型,上线接入了可灵O1模型的“可灵 视频生成”MCP 服务。该MCP服务在原有工具的基础上提供了接入可灵O1模型的工具。“可灵 视频生成”MCP服务提供的工具如下:
1.上线“可灵O1创建主体”工具:
该工具的主要功能是创建参考主体。可以调节主体描述参数、主体名称参数、主体正面参考图Url参数和主体其他参考列表参数。
2.上线“kling_o1_edit_video(可灵O1编辑视频)”工具:
该工具的主要功能是对上传视频进行编辑。可以调节主体参考列表参数、参考图列表参数、是否保留视频原声参数、文本提示词参数、分辨率参数(1080P)和参考视频Url参数(时长≥3秒且≤10秒,大小不超过200MB等)。
3.上线“可灵O1参考生视频”工具:
该工具的主要功能是参考生视频,以参数中传入的图片、主体、视频为参考生成具备主体一致的视频。可以调节时长参数(5s或10s)、分辨率参数(1080p)、主体参考列表参数、参考图列表参数、参考视频列表参数和比例参数。
配置“可灵 视频生成”MCP 服务教程:
1.安装MCP工具:在纳米AI平台“智能体创建”页面中,找到“可灵 视频生成”并点击安装。
2.配置角色提示词(Prompt):在创建智能体时,于“角色介绍”中填写智能体设定(系统提示词),在提示词中填写何时引用该MCP工具,何时引用。敲“/”符号,可引用已配置的MCP工具。
3.调用与生成:在智能体对话过程中,用户只需输入文本内容、参考图片、参考主体和参考视频,系统将自动调用MCP进行视频创作。
五、接入“Kling-V2-6(可灵2.6)”模型
(一)模型特点
可灵首个音画同出模型。实现单次生成同时产出画面 + 自然语音 + 匹配音效 + 环境氛围。打通“音”、“画”两个世界。
重点强化了:
1.音画协同:语音节奏、环境音与画面动作紧密呼应,避免“画面一套、声音一套”的割裂感。
2.音频质量:支持人声、音效、环境声等多类型声音生成,音质更干净、层次更丰富,更接近真实混音效果。
3.语义理解:对多种场景下的文本描述、口语表达和复杂剧情有较强的语义理解能力,能更准确地把握创作者意图,输出更贴合需求的音画内容。
(二)使用入口
纳米AI中“AI视频创作”功能暂未接入“Kling-V2-6(可灵2.6)”模型,上线接入了可灵2.6模型的“可灵 视频生成”MCP 服务和“纳米 动作模仿”MCP服务。“可灵 视频生成”MCP服务在原有工具的基础上提供了接入可灵2.6模型的工具.
1.“纳米动作模仿”MCP服务:
上线“可灵动作模仿”工具。该工具的主要功能是基于一段真人视频素材,和一张参考人物图片,根据提示词生成生成精准控制动作及表情的角色视频。可以调节“
生成视频中人物的朝向”参数(与图片一致/与视频一致)、参考图像的获取链接参数、是否保留视频原声参数、生成视频的模式参数(标准模式std-720P画质或高品质pro-1080P画质)、文本提示词参数和参考视频参数。
2.“可灵 视频生成”MCP 服务:
2.1上线“可灵2.6图生视频”工具:
可以根据首帧图像和文本提示词,生成一段流畅的视频。支持调节以下参数:时长参数(5s或10s)、分辨率参数(1080p)、文本提示词参数、是否开启音效参数(可选,on或off)和比例参数。
2.2上线“可灵2.6文生视频”工具:
可以基于文本提示词,生成一段流畅的视频。支持调节以下参数:时长参数(5s或10s)、文本提示词参数、是否开启音效参数(可选,on或off)和比例参数。
配置“可灵 视频生成”MCP 服务和“纳米 动作模仿”MCP服务教程:
1.安装MCP工具:在纳米AI平台“智能体创建”页面中,找到“可灵 视频生成”或“纳米 动作模仿”并点击安装。
2.配置角色提示词(Prompt):在创建智能体时,于“角色介绍”中填写智能体设定(系统提示词),在提示词中填写何时引用该MCP工具,何时引用。敲“/”符号,可引用已配置的MCP工具。
3.调用与生成:在智能体对话过程中,用户只需输入文本内容、参考图片和参考视频,系统将自动调用MCP进行视频创作。
六、接入“Wan2.6(通义万相2.6)”模型
(一)模型特点
对于图生图—支持以下能力:
1.多图融合与创意重组:上传多张参考图,Wan2.6会智能融合产品、场景、色调等元素,进行创意重组。生成一张元素协调、风格统一的高质量新图像,实现1+1>2的视觉创新。
2.商用级主体一致性保持,局部随心改:在商业延展设计中,可对图像进行局部精准编辑(如换背景、增元素),同时严格锁定主体(人物、产品、IP)的外观、质感与辨识度,确保系列创作的绝对一致性。
3.美学要素迁移,风格、质感一键复刻:上传任意参考图,一键提取其色彩、光影、质感等美学基因,完整迁移至您的新作品中,实现高级视觉风格的精准复刻。
4.图文混排与逻辑生成:输入Prompt,AI会自动理解内容并完成专业的图、文排版,直接生成可用的海报或信息图,实现图文案到成品的一键转化。
5.镜头与光影精准控制,多视角任选:可直接指定画面的镜头语言(如特写、全景、俯拍、仰拍)与光影细节(如侧光、柔光、戏剧光、自然光)。
对于文生图—支持以下能力:
1.艺术风格的高度美学与可控性
精准捕捉艺术灵魂—对各类风格关键词理解深入,还原度更高,画面整体风格统一且完整。
风格融合自然流畅——支持多种艺术风格有机融合,过渡平滑,创作出独具一格的视觉作品。
细节刻画生动丰富——对「肌理、色彩、笔触]等细节的呈现更为到位,赋予图像故事感与表现力。
2.真实人像质感,光影细节到位:在写实人像生成中,人物神态白然、肤质真实,有效削弱AI感。模型综合优化构图与光影,呈现更具表现力的人像视角。
3.文字生成,图表、插画与海报设计:依据中英文长文本内容,结合美学设计与图文协调性,精准生成海报、图文说明、信息图表等,实现内容与视觉的高度统一。
对于图生视频、文生视频和视频生视频—支持以下能力:
1.角色扮演:上传一段视频(真人、宠物、卡通、任何物体 ….…. ),指定角色“出演你的剧本”。支持单人表演、双人合拍,不仅复刻外观,还能复刻音色。
2.智能分镜叙事:输入简单描述,自动拆解为多镜头组合:特写(眼神)、中景(动作)、全景(环境),并保持角色、服装、情绪一致。
3.更长的视频生成和自然音画同步:生成最长15秒的连贯视频,包含入场、互动、离场等完整叙事结构,不再是碎片化动作。角色不仅能动嘴,更能“带情感说话” -- 人声富有情绪,口型精准匹配,支持多人自然对话。
4.更强的指令遵循与画面质感:对提示词的理解能力,画面光影更细腻、动作更流畅、美学表现更成熟。
(二)使用入口
纳米AI中“AI视频创作”功能接入了“Wan2.6(通义万相2.6)”模型,支持创作“图生视频”和“文生视频”类型的作品。分辨率支持选择720P和1080P,时长选择支持5s和10s;同时上线接入了通义万相2.6模型的“千问 图像视频生成 (免key版)”MCP 服务。“千问 图像视频生成 (免key版)”MCP服务在原有工具的基础上提供了接入通义万相2.6模型的工具。“千问 图像视频生成 (免key版)”MCP服务提供的工具如下:
1.上线“万相2.6图生视频”工具:
该工具的主要功能是根据首帧图像和文本提示词,生成一段流畅的视频。支持调节以下参数:音频文件url参数(时长3s-30s,大小不超过15MB)、时长参数(5s或10s)、首帧图像Url参数、是否开启提示词改写参数(true或false)、文本提示词参数、分辨率参数(720P或1080P)、镜头数量参数(可选,single,multi,对应单镜头和多镜头)、是否开启音效参数(true或false)。
2.上线“万相2.6文生视频”工具:
该工具的主要功能是基于文本提示词,生成一段流畅的视频。支持调节以下参数:音频文件url参数(时长3s-30s,大小不超过15MB)、时长参数(5s或10s)、是否开启提示词改写参数(true或false)、文本提示词参数、分辨率参数(720P或1080P)、镜头数量参数(可选,single,multi,对应单镜头和多镜头)、是否开启生音效参数(true或false)和比例参数。
3.上线“万相2.6参考生图”工具:
该工具支持多图输入及主体一致性生成。支持调节以下参数:图片Url数组参数(1-4张)、是否开启提示词改写参数(true或false)、文本提示词参数和比例参数。
4.上线“万相2.6文生图”工具:
该工具的主要功能是基于文本生成图像,支持多种艺术风格与写实摄影效果,满足多样化创意需求。支持调节以下参数:是否开启提示词改写参数(true或false)、文本提示词参数和比例参数。
5.上线“万相2.6视频生视频”工具:
该工具的主要功能是参考输入视频中的角色形象和音色,搭配提示词生成保持角色一致性的视频 。支持调节以下参数:时长参数(5s或10s)、是否开启提示词改写参数(true或false)、参考角色标识参数、文本提示词参数、分辨率参数(720P或1080P)、镜头数量参数(可选,single,multi,对应单镜头和多镜头)、视频Url数组参数(最多3个视频,时长2-30s,不超过100MB)和比例参数。
配置“千问 图像视频生成 (免key版)”MCP 服务教程:
1.安装MCP工具:在纳米AI平台“智能体创建”页面中,找到“千问 图像视频生成 (免key版)”并点击安装。
2.配置角色提示词(Prompt):在创建智能体时,于“角色介绍”中填写智能体设定(系统提示词),在提示词中填写何时引用该MCP工具,何时引用。敲“/”符号,可引用已配置的MCP工具。
3.调用与生成:在智能体对话过程中,用户只需输入文本内容、参考图片和参考视频,系统将自动调用MCP进行图像或视频创作。
注:本次上线的各个MCP服务及工具均需按调用次数付费,详细计费说明可访问“https://www.n.cn/membershipquery?tab=billing”查看。
以上就是纳米AI最近接入的各个模型,欢迎使用。
页:
[1]