ai在美术绘画活动教案领域除了画图还能有哪些应用?

引来插画效果和联想效果都达到惊人效果。虽然不懂,但是这个话题很吸引ZOMI,于是就着这个领域内容来看看有什么好玩的技术点。

但是要了解:Transformer 带来AI+艺术,从语言开始遇到多模态,碰撞艺术火花 这个主题,需要引申很多额外的知识点,可能跟 CV、NLP 等领域大力出奇迹的方式不同,AI+艺术会除了遇到 Transformer 结构以外,还会涉及到 VAE、ELBO、Diffusion Model等一系列跟数学相关的知识。

Transformer + Art系列中,今天新挖一个 Diffusion Models 的坑,跟 VAE 一样原理很复杂,实现很粗暴。据说生成扩散模型以数学复杂闻名,似乎比 VAE、GAN 要难理解得多,是否真的如此?扩散模型能少来点数学吗?扩散模型真的做不到一个简单点的理解吗?

在本文中,我们将研究扩散模型的理论基础,然后演示如何在 PyTorch 中使用扩散模型生成图像。Let's dive in!

扩散模型(Diffusion Models)发表以来其实并没有收到太多的关注,因为他不像 GAN 那样简单粗暴好理解。不过最近这几年正在生成模型领域异军突起,当前最先进的两个文本生成图像——OpenAI 的 DALL·E 2和 Google 的 Imagen,都是基于扩散模型来完成的。

如今生成扩散模型的大火,则是始于2020年所提出的 DDPM(Denoising Diffusion Probabilistic Model),仅在 2020 年发布的开创性论文 DDPM 就向世界展示了扩散模型的能力,在图像合成方面击败了 GAN[6],所以后续很多图像生成领域开始转向 DDPM 领域的研究。

看了下网上很多文章在介绍 DDPM 时,上来就引入概率转移分布,接着就是变分推断,然后极大值似然求解和引入证据下界(Evidence Lower Bound)。一堆数学记号下来,先吓跑了前几周的我(当然,从这种介绍我们可以再次看出,DDPM 实际上与 VAE 的理论关系是非常紧密),再加之人们对传统扩散模型的固有印象,所以就形成了“需要很高深的数学知识”的错觉。

GAN 由一个生成器(generator)和判别器(discriminator)组成,generator 负责生成逼真数据以“骗”过 discriminator,而 discriminator 负责判断一个样本是真实的还是“造”出来的。GAN 的训练其实就是两个模型在相互学习,能不能不叫“对抗”,和谐一点。

VAE 同样希望训练一个生成模型 x=g(z),这个模型能够将采样后的概率分布映射到训练集的概率分布。生成隐变量 z,并且 z 是及含有数据信息又含有噪声,除了还原输入的样本数据以外,还可以用于生成新的数据。

Diffusion Models 的灵感来自 non-equilibrium thermodynamics (非平衡热力学)。理论首先定义扩散步骤的马尔可夫链,以缓慢地将随机噪声添加到数据中,然后学习逆向扩散过程以从噪声中构造所需的数据样本。与 VAE 或流模型不同,扩散模型是通过固定过程学习,并且隐空间 z 具有比较高的维度。

总的来看,Diffusion Models 领域正处于一个百花齐放的状态,这个领域有一点像 GAN 刚提出来的时候,目前的训练技术让 Diffusion Models 直接跨越了 GAN 领域调模型的阶段,直接可以用来做下游任务。

Diffusion Models 既然叫生成模型,这意味着 Diffusion Models 用于生成与训练数据相似的数据。从根本上说,Diffusion Models 的工作原理,是通过连续添加高斯噪声来破坏训练数据,然后通过反转这个噪声过程,来学习恢复数据。

训练后,可以使用 Diffusion Models 将随机采样的噪声传入模型中,通过学习去噪过程来生成数据。也就是下面图中所对应的基本原理,不过这里面的图仍然有点粗。

Diffusion Models 分为正向的扩散过程和反向的逆扩散过程。下图为扩散过程,从 x_0 到最后的 x_T 就是一个马尔科夫链,表示状态空间中经过从一个状态到另一个状态的转换的随机过程。而下标则是

最终,从 x_0 输入的真实图像,经过 Diffusion Models 后被渐近变换为纯高斯噪声的图片 x_T

模型训练主要集中在逆扩散过程。训练扩散模型的目标是,学习正向的反过程:即训练概率分布 p_{\theta}(x_{t-1} \mid x_{t}) 。通过沿着马尔科夫链向后遍历,可以重新生成新的数据 x_0 。读到这里就有点意思啦,Diffusion Models 跟 GAN 或者 VAE 的最大区别在于不是通过一个模型来进行生成的,而是基于马尔科夫链,通过学习噪声来生成数据。

除了生成很好玩的高质量图片之外呢,Diffusion Models 还具有许多其他好处,其中最重要的是训练过程中不需要再对抗了,整个世界都感觉和平了。因为对于 GAN 网络模型来说,对抗性训练其实是很不好调试的,因为对抗训练过程互相博弈的两个模型,对我们来说是个黑盒子。另外在训练效率方面,扩散模型还具有可扩展性和可并行性,那这里面如何加速训练过程,如何添加更多数学规则和约束,扩展到语音、文本、三维领域就很好玩了,可以出很多新文章。

上面已经清晰表示了 Diffusion Models 由正向过程(或扩散过程)和反向过程(或逆扩散过程)组成,其中输入数据逐渐被噪声化,然后噪声被转换回源目标分布的样本。

如果不想深入了解数学原理的可以直接跳过到代码实现部分。如果还是想了解一些基础的数学原理,那么可以接着继续看,其实没比 GAN 难多少,就是个马尔科夫链 + 条件概率分布。核心在于如何使用神经网络模型,来求解马尔科夫过程的概率分布

前向过程由于每个时刻 t 只与 t-1 时刻有关,所以可以看做马尔科夫过程,在马尔科夫链的前向采样过程中,也就是扩散过程中可以将数据转换为高斯分布。即扩散过程通过 T 次累积对输入数据 x_i 添加高斯噪声,将这个跟马尔可夫假设相结合,于是可以对扩散过程表达成:

不过呢,扩散模型的神奇“魔力”来自逆扩散过程。如果说扩散过程是加噪的过程,那么逆扩散过程就是去噪推断过程。如果我们能够逐步得到逆转后的分布 p_{\theta}(x_{t-1} \mid x_{t}) ,就可以从标准高斯分布

根据马尔可夫规则表示,逆扩散过程当前时间步 t 只取决于上一个时间步 t-1,所以有:

现在我们其实已经简单搞清楚了 Diffusion Models 的扩散过程和逆扩散过程,也就是扩散过程中,人工添加一点点噪声直到数据为纯高斯噪声;逆扩散过程学习逆转后的分布,逐步地恢复样本数据。

不过,马尔科夫过程最麻烦的就是求解了,一般会用蒙特卡洛法进行采样,然后再去评估采样的结果好坏。上面的 Diffusion Models 会不会太理想啦?

在 VAE 中我们学过极大似然估计的作用:对于真实的训练样本数据已知,要求模型的参数,可以使用极大似然估计。Diffusion Models 通过极大似然估计,来找到逆扩散过程中马尔科夫链转换的概率分布,这就是 Diffusion Models 的训练目的。即最大化模型预测分布的对数似然:

对于神经网络模型来说,一般优化的方式是通过损失函数求解网络模型的最小值,求最大化期望不太好使。于是换个思路,求模型的极大似然估计,等同于求解最小化负对数似然的变分上限 L_{vlb} (Variational Upper Bound):

因为变分上界比较难求,但是 VAE 的推导中介绍过其实可以通过 KL散度来表示上界。那到这里为止,最小化 L_{vlb} 即可最小化 Diffusion Models 的目标损失

看到公式 (5) 会不会觉很熟悉,下面讲讲两个小概念,再引入如何求解最小化变分上限 L_{vlb}

我们回顾一下, KL 散度是一种不对称统计距离度量,用于衡量一个概率分布 P 与另外一个概率分布 Q 的差异程度。之所以想根据 KL 散度来求解 L_{vlb},是因为根据 Diffusion Models 的定义马尔可夫链中的转移分布属于高斯分布,而 KL 散度则可以用来计算2个高斯分布之间的差异距离。

连续分布的 KL 散度的数学形式是:

用 KL 散度来表示变分上界

根据 Diffusion Models 最早提出的一篇文章[1],进一步对 L_{vlb} 推导,可以得到变分上限为熵与多个KL散度的累加,根据 KL 散度重写变分上限有:

x_0 都会出现在扩散过程中的 L_{t-1} ,现在所有 KL 散度都是在高斯概率分布之间进行比较。 这意味着可以使用闭包表达式,而不是采样的蒙特卡洛估计方式来精确计算变分上界。

到这里看不懂没关系,想表达的是最小化 L_{vlb} 即可最小化 Diffusion Models 的目标损失,而求解 L_{vlb} 则可以通过计算 KL 散度来代替。

有了目标函数的数学基础后,现在需要就如何实现扩散模型训练过程有几个细节:

  1. 对于正向扩散过程,唯一需要的选择是概率相关的向量(均值和方差),其值在扩散过程中在隐变量 x_t 中直接添加高斯参数 \beta_{t}
  2. 对于逆扩散过程,需要选择能够表达高斯分布的模型结构,神经网络模型的拟合能力很强,于是就可以引入神经网络模型啦。
  3. 最后就是对于神经网络模型有一个简单的要求,模型的输入、输出、中间隐变量必须要有相同的维度 dims。

既然有神经网络模型,那自然离不开损失函数,有了损失函数就有了优化的方向和目标,下面来展开损失函数的定义。

在逆扩散过程公式(10)中,时间步 T 中前,由于前向扩散过程中 q 没有可学习参数,只是单纯添加高斯噪声,而最后时间步 T 得到的 x_T 则是纯高斯噪声,因此在训练的过程中 L_T 可以当做常量忽略。即下面公式不需要:

回顾公式(3),把反向马尔科夫过程转变为高斯分布来表示:

假设多元高斯是具有相同方差的独立高斯的乘积,方差值可以随时间变化。基于这个假设可以将逆扩散过程的方差,设置为与正向扩散过程方差相同,得到公式(11)。不过有意思的是在实际代码中因为引入了神经网络,所以可以通过训练的方式来得到方差 \Sigma

那现在就更清楚啦,可以将KL散度:

由正向扩散过程我们知道,任意时刻的 x_t 可以由 x_0\beta 表示。参数 \mu_{\theta} 最直接的表示是预测扩散模型的后验概率的均值。不过在实际测试当中,DDPM 作者发现通过训练以在任何给定时间步 t 预测噪声分量

因此可以得到损失函数 L,使得训练更加稳定:

实际训练过程和 L_0

上面已经说过啦,在逆扩散过程中,马尔科夫过程表示为由连续条件高斯分布下的累积变换组成。有了总体的优化策略,还要看每个像素的计算方式,在逆扩散过程结束时,我们希望得到一张生成好的图像,因此需要设计一种方法,使得图像上每个像素值都满足离散的对数似然。

为了达到这个目的,将逆扩散过程中的最后从 x_1x_0 的转换设置为独立的离散计算方式。 即在最后一个转换过程在给定 x_1$ x_1 下得到图像 x_0 满足对数似然,假设像素与像素之间是相互独立的:

式 (18) 中 D 是输入数据的维数,上标 i 表示图像中的一个坐标位置。现在的目标是确定给定像素的值可能性有多大,也就是想要知道对应时间步 t=1 下噪声图像 x 中相应像素值的分布:

其中 t = 1 的像素分布来自多元高斯分布,其对角协方差矩阵允许我们将分布拆分为单变量高斯的乘积:

现在假设图像已经从0-255的数值之间,经过归一化在[-1,1]的范围内。在 t=0 时给定每个像素的像素值,最后一个时间步 t=1 的转换概率分布 p_{\theta}(x_{0} \mid x_{1}) 的值就是每个像素值的乘积。简而言之,这个过程由等式简洁 (18) 地表示:

  1. 训练到收敛为止(训练时间比较长,T代码中设置为1000)
  1. 从时间步 T 开始正向扩散迭代到时间步 1;
  2. 根据高斯分布计算每个时间步 t 的噪声图;

虽然通过上面一连串很复杂或者看不懂的公式,其实就是为了得到损失函数,或者要知道 Diffusion Model 的优化目标。简化损失函数后的目标变得更加简单了,主要是训练模型 {\epsilon}_{\theta} 。但是看了很多文章,其实还停留在复杂的数学公式推导,仍然没有定义 Diffusion Model 的网络模型结构。

在定义网络模型之前呢,再次声明,Diffusion Model 中对模型的唯一要求是输入和输出的数据维度 dims 需要相同。有点意思,看到这句话,估计就会想到类似于 U-Net的模型架构,而不是 VAE 那种 Encoder 和 Decoder 对 Latency sapce 压缩的结构啦。

回顾扩散过程的公式(1):

既然有了公式(22) 中的变量, q(x_{1:T} \mid x_{0}) 的函数表示就变得比较简单啦,直接使用下面函数 q_x 来表示。

正向过程正式的计算比较简单直接,正如上面理论部分提到的,通过时间步 T 在每次马尔科夫链的转换过程对样本数据 dataset 添加噪声:

与正向扩散过程不同,逆扩散过程需要训练神经网络模型,这里通过定义损失函数和训练参数,然后进行训练。

损失函数刚才原理部分已经讲过啦,通过最小化数据的负对数似然的变分上限进行求解,也就是对应公式(17)。而网络模型直接使用Unet,这里面就不再展开Unet的编写啦,网上一大堆。

参考公式(17)的实现损失函数,在上面训练的过程中其实没有展开,下面给出简单的代码示例,有空再详细解读,今天有点肚子痛,赶着收工。

学习 Diffusion Model 的过程当中,很容易陷入具体的数学细节,像我这样一看到数学就头痛的同学直接劝退,有些喜欢数学的同学则是不能自拔。下面总结一些 Diffusion Model 的要点。

  1. Diffusion Model 通过参数化的方式表示为马尔科夫链,这意味着隐变量 x_1, \dots, x_T 都满足当前时间步 t 只依赖于上一个时间步 t-1,这样对后续计算很有帮助。
  2. 马尔科夫链中的转变概率分布 p_{\theta}(x_{t-1}|x_{t}) 服从高斯分布,在正向扩散过程当中高斯分布的参数是直接设定的,而逆向过程中的高斯分布参数是通过学习得到的。
  3. Diffusion Model 网络模型扩展性和鲁棒性比较强,可以选择输入和输出维度相同的网络模型,例如类似于UNet的架构,保持网络模型的输入和输出 Tensor dims 相等。
  4. 在概率分布转换过程中,因为通过马尔科夫假设,目标函数第4点中的变分上限都可以转变为利用 KL 散度来计算,因此避免了采用蒙特卡洛采样的方式。
}

董秘你好,近期人工智能ai绘画领域火爆,公司在监视器领域积累了一定图像处理与识别经验,公司目前准备结构转型,请问未来公司是否有向人工智能图像领域进一步扩展意向?

尊敬的投资者,您好!人工智能应用百花齐放,智能化需求也在持续增长。公司始终保持技术的前瞻性,围绕产业需求深度创新,持续构建产业创新的科研能力,聚焦城市、企业业务场景持续创新,从交通治理到民生服务、从安全生产到智能制造、从农牧养殖到环保生态等,不断突破传统业务边界,不断拓宽AI应用领域,与客户携手共建数智应用的领先优势,赋能千行百业数智化升级。感谢您的关注!

免责声明:本信息由新浪财经从公开信息中摘录,不构成任何投资建议;新浪财经不保证数据的准确性,内容仅供参考。

}

“如果让我形容,AI技术在艺术领域的应用,我认为它不过是个‘爆米花现象’。”现为广州美术学院教授的谭秀江早在二十年前,就已经开始关注科技介入艺术的诸多现象,他甚至尝试过构建类似的数字化糸统,目的是为自己的研究与创作提供更加便捷的条件,他认为,艺术家应该跟进时代的步伐,AI的发展,事实上已经革新了艺术创作的技术与观念,这为当代艺术带来了更多的可能性。

“AI对图片处理得再好,不过就是一个苦力活”

收藏周刊:最近,AI绘画在一次大赛中夺冠,再次引起了“艺术家的焦虑”。

谭秀江:其实这种担心大可不必。因为真正的艺术有一种任何其他范畴的技术始终无法取代的核心的因素。

收藏周刊:什么核心的因素?

谭秀江:人工智能的概念,前置是人工,所以,完全不必担心艺术会被计算所取代。从技术层面来看,艺术与科技的发展一直都处于相互对应的变动趋势之中。我记得自己最早接触计算机图形的时间是上世纪90年代初,当时有位同事从美国带回一台电脑,急着炫耀一番,我那天印象特别深的是,这哥们神色诡异地打开电脑,映入眼帘的是他与某位名人的一张私人合照,在场众人目瞪口呆,仿佛见识了神秘的黑科技。实际上,那不过是一张经过photoshop处理的图片(简称P图),这么多年过去了,当年的高科技早就没有什么技术含量可言,路边的打印店甚至可以帮你免费制作。

在这个层面来看,AI对图片处理得再好,不过就是一个苦力活,还谈不上艺术,因为它不需要过多的个人审美介入,尤其是无法介入艺术家灵光乍现的那些瞬间体验所需要的图像意识。


   ■ 谭秀江使用AI创作的《青鸟》系列作品。

AI绘画是模拟已有绘画模式

收藏周刊:您是什么时候开始注意到这种技术在艺术创作中应用的?

谭秀江:二十年前我在英国做博士后的时候,侧重点是研究欧洲高技派建筑,这是最早使用计算机辅助设计的专业,CAD这个软件很多人都熟识,现在所谓的AI绘画,使用的技术还是CG为核心的计算机图形处理系统。简单说来,人工智能的绘画,就是程序读取了无数的图层之后,根据用户指令进行重新叠加从而形成新的图像。打个比方,AI在艺术领域的应用,我认为不过是一个“爆米花现象”。

收藏周刊:这又是如何理解?

谭秀江:AI绘画有一个预设的前置步骤,即“机器学习”,也就是采集相应的图像信息进行分类,类似按照美术史的划分古典主义、印象主义、野兽派、立体主义等,要以最简单的数字化技术对不同的形态特征的绘画流派、风格进行元素萃取,最后根据指令匹配、嵌套甚至迭代生成新的画面。实际上,AI绘画不过是在模拟人类已有的绘画模式并通过算法对其重新组合。

收藏周刊:在AI绘画的软件里,输入一个关键词,就能马上生成一幅看起来很美的作品,这不得不让一些依靠插画为生的画家感到焦虑。

谭秀江:这就得看作为插画师,他们自己在乎的是什么。计算机的算法肯定快过人类,图形生成的数量也是呈几何倍数递增的,但绝大多数不过是让人一乐的“爆米花”式的膨化效应,我觉得这种感觉很像自己孩童时代的“爆米花”记忆:听着响,嚼着香,可真要拿它当饭吃,一定会很伤。

“一招鲜,吃遍天。风格是无法被取代的”

收藏周刊:您认为这类作品与够得上艺术创作的作品,区别在哪里?

谭秀江:这就涉及到艺术观念的话题了。先不妨界定一下什么是艺术,我们可以直接套用谢赫“六法”来作为讨论艺术的本质,我认为,目前的人工智能在“摹状”这一经验条件下,图形识别和渲染技术无疑能够将六法中的“应物象形、随类赋彩、经营位置、传移摹写”这四个方面做到几乎完美,但唯独无法对人的精神意象进行模拟。在美术史上最终能够成为界碑的杰作,大抵都有一个共通的特点:一招鲜,吃遍天。风格是无法被取代的,“初次”和“唯一”是我们对艺术品评价最能够达成共识的,也是最核心的取舍标准。

风格标识中还有一点难以模拟的是艺术家的用笔特征,尤其是那些看似轻松的笔触,它们具有极其强烈的随意性和偶然性,但同时也是艺术家最宝贵的个性标识和风格要素,AI绘画均无法实现,而更别说“气韵生动”那神一般的境界了。

收藏周刊:您认为AI绘画的发展对艺术创作将起到怎样的作用?

谭秀江:所谓“人惟旧,器惟新”。人类始终是以感情的依存而存在的,而艺术作为人在情绪上短暂而偶然间激活的瞬间体验所形成的载体,它有独特的生命价值,这不是人工智能通过训练可以模拟出来的,而且,AI至今无法迈出不基于量变而至质变的那一步,“意象”作为激活诗歌、绘画创作的修辞手法,持续地推动着艺术家的感知模式和全新图式的诞生,推动着艺术史的日新月异、生生不息。最典型的例子就是毕加索,他永远都处在一种变动不居、根据被自己触发的意念进行创作的状态。

收藏周刊:如果继续深化分析,他的探索有怎样的特点?

谭秀江:毕加索的学院派写实功底大约只有七八分熟,早期的创作套用了各种色彩模板,如蓝色时期和粉红色时期,真正令他醍醐灌顶的,大概是塞尚的“压缩空间”观念和手法,他随即又将西班牙老家出土的原始雕塑、非洲部落的面具等形态元素融入其中,从而形成了以“立体主义”为风格标签的图式突变,这条路径无疑是清晰的,但是,他在风格变化之间的那些瞬间的、偶然的情境以及在各种不同物象之间进行转换的“拟象”机制,是无法习得的。不管是机器还是人,都无法对他进行模仿。

收藏周刊:这似乎就触及到了艺术内核或本质的地方。

谭秀江:我们所鉴别的艺术风格,实际上首先取决于艺术家个人的视觉偏爱;第二,基于视觉文化的形态分析,像毕加索把自然的物象、非洲土著艺术以及原始雕刻匹配起来形成新的艺术形式;第三,当然也是最重要的,是让艺术家屹立于美术史而无法被取代的一系列视觉标志或图像符号,这是基于人类精神意象的图式突变及动力,这远非常识中的艺术的故事,别说模拟,连说都说不清。

艺术家无论是技术还是观念,能更新就更新

收藏周刊:您认为AI绘画会对艺术创作起到积极的作用吗?

谭秀江:这就是我们前面提到的“器惟新”,艺术家要刷新自己的存在感,更要增强自己的时代感,无论是技术还是观念,能更新就更新,以免陷入手工匠人的困境之中进退两难。AI的发展,实际上就是革新了艺术创作的工具,它能够实现可能性简直令人不可思议。

收藏周刊:您有试过借助AI作画吗?

谭秀江:我一直都沉浸在AI的深度体验之中。IOS系统是逢新必更,长驻的APP有近10GB。去年,我在从老家回广州的高铁上,神思恍惚之际产生了许许多多回望时空的幻觉片断,记得那次返乡之旅专程去了青云谱的八大山人故居,当时突发奇想,何不先用手机将那些渐行渐远但一直魂牵梦萦的意念记录下来?那次在高铁上,我忽然发现,在AI绘画之中的确存在某些极速呈现的形式感,形成的作品的确也令人十分诧异。后来经过反反复复的实验,又历经了许多极限体验但又不期而遇的视觉效果,于是特别感慨古人所说的“从手放意,无心而得”这句话的真实涵义。不过,当探测到这种随机性在AI中存在太多局限的时候,我就变得兴味索然了。

工学博士,粤港澳大湾区美术家联盟副主席,广州美术学院版画系教授,2001年至2002年在英国卡迪夫大学威尔士建筑学院从事博士后研究,同时任伦敦大学考陶德艺术学院客座研究员和艾伯丁大学文化史系访问学者。

■收藏周刊记者 梁志钦

  以上内容版权均属广东新快报社所有(注明其他来源的内容除外),任何媒体、网站或个人未经本报协议授权不得转载、链接、转贴或以其他方式复制发布/发表。协议授权转载联系:(020)。

}

我要回帖

更多关于 美术绘画活动教案 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信