建立以一种新型的AI模型从隐形中出现

Inception是一家由斯坦福计算机科学教授Stefano Ermon创立的新的总部位于帕洛阿尔托的公司,声称已经开发了一种基于“扩散”技术的新型AI模型。 Inception称其为基于扩散的大语言模型或简称“ DLM”。 现在受到最大关注的生成AI模型可以广泛分为两种类型:大语言模型(LLMS)和扩散模型。 LLM用于文本生成。同时,为Midjourney和Openai的Sora等动力AI系统的扩散模型主要用于创建图像,视频和音频。  该公司称,Inception的模型提供了传统LLM的功能,包括代码生成和提问,但性能明显更快并降低了计算成本。 Ermon告诉TechCrunch,他一直在研究如何将扩散模型应用于他的斯坦福实验室很长时间以来。他的研究是基于与扩散技术相比,传统LLM相对较慢的想法。    借助LLMS,“您在生成第一个单词之前无法生成第二个单词,并且在生成前两个单词之前,您才能生成第三个单词。”  Ermon正在寻找一种将扩散方法应用于文本的方法,因为与LLMS不同的是,依次使用的LLM会从其生成的数据进行粗略估计(例如图片),然后立即将数据集中在焦点中。 Ermon假设的生成和修改大型文本在平行上可以通过扩散模型进行。 经过多年的尝试,Ermon和他的一名学生取得了重大突破,他们在去年发表的一份研究论文中详细介绍了这一突破。 埃尔蒙(Ermon)意识到了进步的潜力,去年夏天创立了一席之地,攻击了两名以前的学生阿迪亚·格罗弗(Aditya Grover)和康奈尔(Cornell)教授沃迪米尔·库尔(Volodymyr Kul)Eshov,共同领导公司领导。  尽管Ermon拒绝讨论Inception的资金,但TechCrunch了解梅菲尔德基金已经投资了。 Emron说,Inception已经通过解决了他们对降低AI潜伏期和提高速度的关键需求,从而为包括未透露姓名的Fortune 100公司提供了确保。 “我们发现,我们的模型可以更有效地利用GPU,” Ermon说,指的是通常用于运行生产模型的计算机芯片。 “我认为这很重要。这将改变人们建立语言模型的方式。” Inception提供了API以及本地和边缘设备部署选项,对模型微调的支持以及各种用例的开箱即用DLMS套件。该公司声称,其DLM的运行速度比传统LLM的速度快10倍,而成本降低了10倍。 “我们的'小型编码模型与[Openai] GPT-4O Mini W一样好Hile的速度超过10倍,”公司发言人告诉TechCrunch。 “我们的'迷你'模型优于[Meta] Llama 3.1 8b之类的小型开源模型,每秒可实现超过1,000个令牌。” “代币”是对原始数据的行业所说的。假设Insteption的主张提高了,每秒一千个令牌确实是一个令人印象深刻的速度。

建立以一种新型的AI模型从隐形中出现

avatar

知识小能手 管理员

发布了:11473篇内容
查阅文章

发布评论

验证码

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信