100字范文,内容丰富有趣,生活中的好帮手!
100字范文 > 对抗生成神经网络-GAN通俗理解

对抗生成神经网络-GAN通俗理解

时间:2022-03-21 04:14:16

相关推荐

对抗生成神经网络-GAN通俗理解

对抗生成神经网络-GAN通俗理解

概念引入对抗生成神经网络效果的演变由来简介生成模型判别器工作原理损失函数--交叉熵损失函数(BCE)拓展-DCGAN网络架构

概念引入

超分辨率重构

图像超分辨率重构(super resolution,SR)是指利用计算机将一幅低分辨率图像(low resolution,LR)或图像序列进行处理,恢复出高分辨率图像(high resolution,HR)的一种图像处理技术。HR意味着图像具有高像素密度,可以提供更多的细节,这些细节往往在应用中起到关键作用 。

原理:让计算机同时学习两种数据,一种数据为低分辨率数据,一种为高分辨率数据。

比如,一张蜜蜂采蜜的低分辨率的图片与该图片的高分辨率版本。

应用场景:图像修复,图像转换,图像生成,AI换脸等

对抗生成神经网络

效果的演变

从只能生成黑白图到高清彩图

图像生成

图像转换

也能生成3D图像

由来

Ian J. Goodfellow 在的《Generative Adversative Nets》第一次提出了对抗网络模型,论文提出了一个新的框架,可以利用对抗过程估计生成模型,相比之前的算法,可以认为是在无监督表示学习(Unsuperivised representation learning)上一个突破,现在主要的应用是用其生成自然图片(natural images)。

简介

GAN包含有两个模型,一个是生成模型(generative model),一个是判别模型(discriminative model)。生成模型的任务是生成看起来自然真实的、和原始数据相似的实例。判别模型的任务是判断给定的实例看起来是自然真实的还是人为伪造的(真实实例来源于数据集,伪造实例来源于生成模型)。

这可以看做一种零和游戏。生成器(generator)试图欺骗判别器(discriminator),判别器则努力不被生成器欺骗。模型经过交替优化训练,两种模型都能得到提升,但最终我们要得到的是效果提升到很高很好的生成模型,这生成模型所生成的产品能达到真假难分的地步。

在训练过程中,生成网络G的目标是生成尽可能多的真实图像来欺骗网络D,注意生成器G在这个过程中是不能接触到真实的图像的,而D的目标是试图将G生成的假图像与真实图像区分开来。这样,G和D构成一个动态的“博弈过程”,最终的均衡点为纳什均衡点。

生成模型

在机器学习中,生成模型可以用来直接对数据建模(例如根据某个变量的概率密度函数进行数据采样),也可以用来建立变量间的条件概率分布。条件概率分布可以由生成模型根据贝叶斯定理形成。

监督学习方法可以分为生成方法(generative approach)和判别方法(discriminative approach)。所学到的模型分别称为生成模型(generative model)和判别模型(discriminative model)。生成方法由数据学习联合概率分布

,然后求出条件概率分布

作为预测的模型,即生成模型:

生成模型的工作过程

与分类模型相对应,生成模型的目的在于生成,比如生成一张关于狗的图片,分类模型的目的在于分类,比如根据特征识别该物体是猫还是狗

分类模型的条件概率

分类器的架构

生成模型的条件概率

生成模型的架构

判别器与生成器可以近似地理解为在GAN模型训练中分别单独进行训练地两个网络,这里两个网络从训练开始就应该保持相似的水平,原理很简单,如果你有一个很好的判别器,那么从头到尾,这个判别器都会告诉你生成器生成的图片是假的,那么生成器的训练就会变得没有意义。

判别器工作原理

判别器所执行的任务可以看成是一个自顶向下(从复杂到简单)的过程,其只需要对于输入的高维度的数据进行特征提取得到低维度的判别信息即可,比如分类,检测等等

损失函数–交叉熵损失函数(BCE)

公式

在二分的情况下,模型最后需要预测的结果只有两种情况,对于每个类别我们的预测得到的概率为 P 和 1-P,此时表达式为:

其中:

yi —— 表示样本 i 的label,正类为1,负类为 0pi —— 表示样本 i 预测为正类的概率

推广到多分类:

其中:

M——类别的数量Yic ——符号函数( 0 或 1 ),如果样本i 的真实类别等于 c 取 1 ,否则取0Pic ——观测样本 i 属于类别 c 的预测概率

拓展-DCGAN网络架构

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。