Phi
比特币鲸鱼似乎正在从BTC最近的反弹中实现利润,因为链上分析师已经发现,流入中央加密货币交易所的资金激增。 根据匿名加密货币分析师Phi Deltalytics的CryptoQuant Quickta
文章来源:新智元 都快到年底了,大模型领域还在卷,今天,Microsoft发布了参数量为2.7B的Phi-2——不仅13B参数以内没有对手,甚至还能和Llama 70B掰手腕! 图片来源:由无界 AI
原文来源:硬AI 图片来源:由无界 AI生成 在过去一年左右的时间里,大模型(LLM)吸引了全球的注意力,从GPT3.5、GPT-4到LLaMA等开源模型。然而,种种迹象表明,小模型(SLM)如今越来
微软今天声称,它已经发布了“最有能力、最具成本效益的小语言模型”,并表示Phi-3——其小语言模型Phi系列的第三次迭代——优于同等大小的模型和一些更大的模型。 小型语言模型(SLM)是一种人工智能模
原文来源:AIGC开放社区 图片来源:由无界 AI生成 安徽工程大学、南洋理工大学和理海大学的研究人员开源了多模态大模型——TinyGPT-V。 TinyGPT-V以微软开源的Phi-2作为基础大语言
原文来源:新智元 图片来源:由无界 AI生成 根据消息人士曝料,微软调集了各组中的精英,组建了一支新的AI团队,专攻小模型,希望能够摆脱对于OpenAI的依赖。 凭借着和OpenAI的紧密合作,微软不
据The Information报道,微软这厢高调将GPT-4融入自家各种招牌产品里,那厢背地里却已经开始密谋Plan B,想要通过自研对话式AI(人工智能)大语言模型,来做到媲美OpenAI模型的表
来源:量子位 一个参数量只有1.3B的大模型,为何引发了全网热议? 原来虽然参数量不大,但效果已经超过了拥有7B参数的Llama2。 这个“四两拨千斤”的模型,是来自微软最新的研究成果,核心在于 只使
