本发明涉及漫画创作,具体是涉及一种基于ar拍摄和人工智能的图文生成方法和系统。
背景技术:
::1、在全球化浪潮的推动下,动漫已成为一种关键的文化载体,对于塑造国家软实力和推动文化输出起着至关重要的作用。2、但是现有的漫画创作仍存在一些不足之处:3、1、传统漫画创作的高门槛,需要极高的绘画技巧、出色的叙事能力,创作周期漫长、修改困难以及成本高昂。4、2、现有aigc漫画制作效果低劣:生成作品质量粗糙,缺乏空间感,无法控制镜头构图,无法添加基本的漫画对话框等元素。只能生成静态传统页漫,无法实现阅读者参与和交互体验。技术实现思路1、为解决上述技术问题,提供一种基于ar拍摄和人工智能的图文生成方法和系统,本技术方案解决了上述
背景技术:
:中提出的传统漫画创作的高门槛以及只能生成静态传统页漫,无法实现阅读者参与和交互体验的问题。2、为达到以上目的,本发明采用的技术方案为:3、一种基于ar拍摄和人工智能的图文生成方法,包括:4、s1:生成漫画剧本;5、s2:打造xr漫画场景;6、s3:拍摄漫画镜头;7、s4:生成单个漫画镜头;8、s5:生成漫画页;9、s6:漫画页的修改以及添加动态效果。10、本发明将多种aigc模型与前后端技术有机结合,让用户可以轻松按照自己的想法创作出高质量的漫画,生成的漫画形式更加丰富,带来更加沉浸的阅读体验,极大降低了漫画创作门槛,普通用户无需专业技能即可参与创作,且利用ai自动化生成,显著提高了漫画创作的效率。11、优选的,所述生成漫画剧本的具体方法如下:12、用户在系统中新建作品界面,在界面中可以输入基本信息,所述基本信息包括角色、时间线、世界观等;13、用户输入的基本信息在自动生成模式下可生成故事大纲,用户可在指导生成模式下对故事大纲进行调整;14、在所述自动生成模式下,ai直接根据大纲生成连贯的故事情节;15、在所述指导生成模式下,用户可先输入预期的故事情节,ai则根据当前的大纲和用户输入的预期故事情节生成三个可选分支供选择,用户可重新生成选项;16、系统将文本分为短篇、中篇、长篇三个版本,分别在生成4段、8段、16段文本时,ai会重新整合当前文本,更新故事大纲,保证故事的连贯性和创作灵感的延续。17、优选的,所述打造xr漫画场景的具体方法如下:18、ai首先对传入的剧本文本进行自然语言处理,提取出物品元素列表、对话内容和镜头信息,用户可查看并确认这些提取结果;19、ai根据提取信息自动生成对应的3d模型,并通过语义分析计算每个元素在场景中的最佳位置布局;20、利用blender等3d建模工具,系统自动构建整个3d场景,并传递给系统进行交互式展示;21、除基于剧本生成的基础场景外,系统还支持多种形式的自定义场景编辑;22、所有场景元素均可通过ar交互方式进行位移、旋转、缩放等操作,实现高度自由化编辑;23、系统支持语音指导功能并修改物体纹理,用户可直接语音指令修改选中物体的材质、贴图等属性。24、优选的,所述多种形式的自定义场景编辑具体包括:25、拍照建模:用户可上传真实物品照片,系统即时生成3d模型并导入场景;26、文本输入建模:用户输入文字描述,系统生成对应3d模型;27、预制模型库:系统提供丰富预制3d模型供用户直接拖拽到场景。28、优选的,所述拍摄漫画镜头的具体方法如下:29、用户可直接通过移动设备摄像头,拍摄将真实环境与虚拟漫画场景无缝融合的镜头画面,也可以随时隐藏虚拟物品,只拍摄背景图;30、用户可在虚拟场景中操作位移虚拟摄像机,自由拍摄任意所需视角的画面,实现现实中难以实现的摄影手法;31、在虚拟场景中,系统可进行智能辅助,主要包括:32、自动对准焦点物体进行特写拍摄;33、自动围绕物体旋转来拍摄最佳视角;34、重置摄像机锚点位置;35、调节背景颜色达到特殊视觉效果。36、优选的,所述生成单个漫画镜头的具体方法如下:37、分析各图层的上下位置,并储存位置信息;38、分析图层的像素大小,如果图层过小,则使用放大算法进行放大;39、使用stable diffusion将各图层进行风格转换;40、将各图层按照上下位置关系进行拼接;41、将拼接好的图像使用stable diffusion消除拼接痕迹;42、分析图像是否具有质量较差的区域,若有,则将这一片区域进行裁剪复制,使用stable diffusion增强质量,然后将这一片区域进行透明度变换(削减边缘的透明度),而后将这片区域放回原图片的对应位置;若无,则不做任何操作;43、将完成优化的图片按照算法进行切割以及边框添加。44、优选的,所述生成漫画页的具体方法如下:45、系统根据每个漫画镜头对应的故事情节将漫画镜头分组,有以下三种情况:46、前后两个镜头是一般的时间连续关系,此时这两个镜头将被从上到下排列;47、前后两个镜头是同时发生的,且后一个镜头是前一个镜头的详细解释。此时后一个镜头会被置于前一个镜头上;48、某个镜头描绘了一些重要场景,亦或是描绘了较大的场景,此时这个镜头将占据整个页面;49、系统根据分组信息将漫画镜头进行展示。50、优选的,所述漫画页的修改以及添加动态效果的具体方法如下:51、系统为用户提供几种操作形式,包括点击、框选、涂鸦、语音。52、优选的,所述点击、框选、涂鸦、语音的具体方法如下:53、点击:用户点击需要修改/添加动态效果的部位,系统会进行相关操作,然后将用户选中的部位进行高亮显示,如用户确定,就可以对该部位进行修改,或添加动态效果;54、框选:用户使用手指拖动出一个方框来确定目标部位,其余流程与点击相同;55、涂鸦:用户使用系统提供的画笔将目标部位涂黑,再用其他颜色的画笔进行绘画,从而进行漫画修改或动态效果添加;56、语音:用户使用移动设备自带的麦克风提供指令,将自己的修改想法以语音的形式输入移动设备,而后系统根据该语音信息进行相应的修改或者动态效果的添加。57、一种基于ar拍摄和人工智能的图文生成系统,包括:58、前端ui界面,所述前端ui界面让用户新建作品,输入角色、时间线、世界观等基本信息;59、后端ai,所述后端ai根据用户输入自动生成故事大纲;直接根据大纲生成连贯情节;根据当前的大纲和用户输入的预期故事情节生成三个可选分支供选择;对传入的剧本文本进行自然语言处理;提取信息自动生成对应的3d模型。60、与现有技术相比,本发明提供了一种基于ar拍摄和人工智能的图文生成方法和系统,具备以下有益效果:61、本发明将多种aigc模型与前后端技术有机结合,让用户可以轻松按照自己的想法创作出高质量的漫画,生成的漫画形式更加丰富,带来更加沉浸的阅读体验,极大降低了漫画创作门槛,普通用户无需专业技能即可参与创作,且利用ai自动化生成,显著提高了漫画创作的效率。当前第1页12当前第1页12
技术特征:1.一种基于ar拍摄和人工智能的图文生成方法,其特征在于,包括:
2.根据权利要求1所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述生成漫画剧本的具体方法如下:
3.根据权利要求1所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述打造xr漫画场景的具体方法如下:
4.根据权利要求3所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述多种形式的自定义场景编辑具体包括:
5.根据权利要求1所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述拍摄漫画镜头的具体方法如下:
6.根据权利要求1所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述生成单个漫画镜头的具体方法如下:
7.根据权利要求1所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述生成漫画页的具体方法如下:
8.根据权利要求1所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述漫画页的修改以及添加动态效果的具体方法如下:
9.根据权利要求8所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,所述点击、框选、涂鸦、语音的具体方法如下:
10.一种基于ar拍摄和人工智能的图文生成系统,用于实现如权利要求1-9所述的一种基于ar拍摄和人工智能的图文生成方法,其特征在于,包括:
技术总结本发明公开了一种基于AR拍摄和人工智能的图文生成方法和系统,包括:生成漫画剧本;打造XR漫画场景;拍摄漫画镜头;生成单个漫画镜头;生成漫画页;漫画页的修改以及添加动态效果;所述生成漫画剧本的具体方法如下:用户在系统中新建作品界面,在界面中可以输入基本信息,所述基本信息包括角色、时间线、世界观;用户输入的基本信息在自动生成模式下可生成故事大纲。本发明将多种AIGC模型与前后端技术有机结合,让用户可以轻松按照自己的想法创作出高质量的漫画,生成的漫画形式更加丰富,带来更加沉浸的阅读体验,极大降低了漫画创作门槛,普通用户无需专业技能即可参与创作,且利用AI自动化生成,显著提高了漫画创作的效率。
技术研发人员:黄照晗,王建清,王春鹏,王泷清,王天承
受保护的技术使用者:黄照晗
技术研发日:技术公布日:2024/6/26