不论大家的观点如何离谱,对于ai领域的关注随着大选节节攀升也是不争的事实。
这种热度在孟繁岐宣布即将发布真正的,能够根据文本绘图的人工智能后,来到了一个新的巅峰。
因为接近半年之前,孟繁岐放出的试用版本clip就已经展现了相当出色的绘图能力和多模态理解能力。
好到大家都以为这东西是专门为了ai绘图而研发的。
结果没想到,仅仅只是加入了图像和文本之间的对应关系,模型就很快自发的拥有了如此之强的图像生成能力。
而且半年前就已经那么惊人了,现在那还得了?
对于万众期待的ai绘图,内部的研发其实并不顺利,这点从发布时间上就能够看出。
孟繁岐也犹豫了相当一段时间,应该具体选择怎样的路线。
前世最为著名的ai图像生成器,主要是stablediffusion,midjourney和dalle三个。
其中sd扩散模型是基于clip的文本生成图像模型,它的方式是从有噪声的情况开始,逐渐改善图像,直到完全没有噪声,逐步接近所提供的文本描述。
它的训练方式也已经经过了多次的研究打磨,先采样一张图片,并随着时间的推移逐渐增加噪声,直到数据无法被识别。随后让模型尝试将图像回退到原始形式,在此过程中学习如何生成图片或其他数据。
这种路线如其名字stable一样,非常稳定,不过倘若想要生成非常高质量的图像,计算消耗非常之大。
技术上已经达成,但在成本上,似乎目前不是很适合投入市场。
前世的midjourney则比较擅长各种艺术化的风格,生成的图像常有非常精美的结果。
隐姓埋名,一举夺得绘画>> --