-
可装RTX4090显卡,酷冷至尊展示紧凑型机箱NCore100Max
IT之家 5 月 30 日消息,酷冷至尊(Cooler Master)在 Computex 2023 大展上,展示了一款适配英伟达旗舰 RTX 4090 显卡的紧凑型机箱-NCore 100 Max。NCore 100 Max 机箱高度为 481mm,宽度为 212mm、厚度在 155 至 172mm 之间。该机箱内部有足够的空间容纳长度达 357 毫米的 GeForce RTX 4090,允许安装厚度为三槽位、四槽位的显卡。NCore 100 Max 机箱内部使用 Mini-ITX 主板,没有透明背板和 RGB 灯效,不过有带灰尘过滤器的穿孔铝墙。NCore 100 Max 机箱预装 850WV SFX Gold ATX 3.0 电源和一个用于 2...
智能设备 2023-05-30 10:51:39 -
基于飞桨和文心大模型数链科技发布大宗商品数字供应链系统
【网易科技5月29日报道】近日,数链科技团队推出基于飞桨技术的创新非标单据数字化解决方案,旨在破除大宗商品行业的信息壁垒。此前,大宗商品供应链中的物流票据、合同等交易信息常以实物形式存在,需要人工拍照、存档并进行信息录入,存在不透明和不标准的问题...
智能设备 2023-05-29 22:40:25 -
知乎发布最新智能应用"搜索聚合",面壁智能开源大模型CPM-Bee10b
5月29日消息,近日知乎联合面壁智能在“2023中国国际大数据产业博览会”上发布了最新的大语言模型成果。知乎合伙人、首席技术官李大海宣布,知乎模型应用“搜索聚合”即日开启内测,面壁智能研发的中文基座大模型CPM-Bee10b全面开源,并发布了对话类模型产品“面壁露卡”。李大海表示,知乎将携手面壁智能,让中文用户在大模型时代享受到最优质的服务。此次知乎站内的大模型应用功能“搜索聚合”,将大模型能力应用到了知乎搜索上,每当用户触发搜索时,系统就会从大量提问和回答中聚合观点,提高用户获取信息、形成决策的效率。发布会上,面壁智能联合OpenBMB社区,将自研CPM-Bee 10b模型开源。李大海介绍,该模型从零开始自主训练,基于Transformer架构,中英双语表现优秀,拥有百亿量级参数、万亿级高质量语料。在ZeroCLUE评测中,CPM-Bee 10b以总分78.18分登顶;在英文常识知识推理榜单上,CPM-Bee 10b得到了67分的平均分,媲美英文开源模型LLaMA。“CPM-Bee10b 将全面开源,并允许商用。”李大海称,面壁智能一直坚持开源路线,未来也会持续拥抱开源,促进大模型领域技术和生态的繁荣。发布会还带了面壁智能研发的对话类模型产品“露卡”(Luca)。该产品在开源基础模型上又有进一步性能提升,可以进行智能交互并支持多轮对话。演示中,“露卡”展示了多项能力,既能帮助人了解世界知识、处理数理逻辑、编写程序代码、激发创作灵感;还可以利用海量知识数据,帮助人更好地获取信息、做出规划、解决问题。此外,“露卡”还可以查找论文并生成摘要。李大海介绍,“露卡”目前已开启内测,面壁将不断完善功能,让更多用户体验到大模型带来的便利。 ...
互联网 2023-05-29 12:24:00 -
阿里云智能CTO周靖人:MaaS已成标准未来应用都将围绕模型开发
【网易科技5月29日报道】2023中关村论坛人工智能大模型发展论坛,阿里云智能集团CTO周靖人发表了《MaaS,云智时代的AI新范式》的主题演讲。周靖人表示,“以模型为中心的开发范式(MaaS)已成为行业标准,未来应用开发的整个链路都会基于这一理念来做...
智能设备 2023-05-29 11:23:26 -
快讯|360与创业黑马达成合作:开展大模型联合研发
【网易科技5月27日报道】360与创业黑马签订战略合作协议,双方将在人工智能大模型研发、城市产业落地、中小企业服务等领域展开全面合作。据悉,创业黑马将支持并加入360牵头发起的GPT产业联盟,推动GPT技术赋能企业客户,加速数字中国发展...
智能设备 2023-05-28 13:21:08 -
度小满开源千亿参数金融大模型“轩辕”
5月26日消息,近日,度小满正式开源千亿级中文金融大模型——“轩辕”。轩辕大模型是在1760亿参数的Bloom大模型基础上训练而来,在金融名词理解、金融市场评论、金融数据分析和金融新闻理解等任务上,效果相较于通用大模型大幅提升。据度小满方面介绍,在金融场景中的任务评测中,轩辕全面超越了市场上的主流开源大模型,赢得了150次回答中63.33%的胜率。在通用能力评测中,轩辕有10...
互联网 2023-05-26 12:25:23 -
李彦宏:大模型即将改变世界
5月26日消息,百度创始人、董事长兼CEO李彦宏在2023中关村论坛发表题为《大模型改变世界》的演讲。他表示,我们正处在全新起点,这是一个以大模型为核心的人工智能新时代,大模型改变了人工智能,大模型即将改变世界...
互联网 2023-05-26 11:37:59 -
网易CEO丁磊谈AI大模型竞赛:找到应用场景、服务用户需求才是“胜者”
5月25日,网易发布2023年第一季度财报。一季度,网易净收入250亿元,非公认会计准则下归属于公司股东的净利润76亿元,公司业绩稳健增长,超市场预期。网易Q1研发投入37亿元,研发投入强度达15%。财报发布后,网易CEO丁磊、CFO杨昭烜等高管出席财报电话会,解读一季度业绩以及关于游戏、音乐、AIGC及海外市场相关的布局情况。发展AI大模型首要任务:找出应用场景、满足用户体验投资人问及网易在AI大模型领域的研发投入和布局逻辑时,网易CEO丁磊表示,未来,随着AI大模型的发展,企业会逐渐找到优化路径,不断降低大模型研发所需的资金和算力。同时,丁磊认为,在AI大模型竞赛中,真正的胜者是能选择好应用场景的企业。所以,目前网易的首要任务是探索AI大模型在不同产品场景下的应用,并研发出更符合用户体验的优质产品。针对游戏市场竞争格局,网易CEO丁磊表示,今年以来市场上涌现出许多新游戏,但消费者只会选择高质量的作品。对于网易来说,最重要的事情之一是在产品中始终保持与众不同的创新,无论是创新玩法,还是应用新技术,来不断满足用户的需要。“我们有信心在未来的发展中始终保持独特的优势”。《蛋仔派对》每周新增百万UGC地图 将加快出海步伐今年一季度,基于网易自研引擎开发的《蛋仔派对》,开创了独特的UGC内容共创模式。超3000万日活玩家,可借助《蛋仔派对》UGC地图编辑工具创作游戏内容,并通过社交媒体进行二次破圈传播。目前《蛋仔派对》每周平均新增超百万UGC地图,玩家的创作热情助力《蛋仔派对》在一季度登顶中国iOS下载榜,也进一步巩固了《蛋仔派对》高粘性、强社交的内容生态壁垒。在国内取得成功后,《蛋仔派对》将瞄准国际市场,加快出海步伐。网易高管在财报电话会上表示,《蛋仔派对》已在东南亚等地试运营,收集了本地玩家的体验反馈。下一步,网易将继续强化《蛋仔派对》独特的UGC玩法体验,让更多海外玩家感受到国产自研游戏的魅力。针对海外市场布局的相关问询,网易高管在财报电话会上披露,目前网易在海外已布局超过10个工作室。网易可以和这些经验丰富的海外团队一起工作、分享成功的创作经验,实现双赢。同时,公司有信心在未来一段时间里,海外工作室可以推出备受瞩目的作品,同时服务好中国及海外市场。网易云音乐毛利率创新高、付费用户持续增长,独立音乐人超63万一季度,网易云音乐业绩健康发展,毛利率从去年同期12.2%,大幅提升至22...
互联网 2023-05-25 22:12:52 -
苹果禁用ChatGPT,为防机密泄露!大模型版Siri即将升级推出
明敏 杨净 发自 凹非寺量子位 | 公众号 QbitAI前脚ChatGPT刚刚上线iOS嗨翻全球,火速霸榜APP Store;后脚却曝出消息——苹果自家员工不能用ChatGPT,而且已经好几个月了。这事儿马上引发巨大讨论。要知道,从ChatGPT趋势到来后,苹果就几乎保持“隐身”,好不容易iPhone拥抱ChatGPT了,现在好像又泼了盆冷水。有人已经开始嘲讽:苹果是害怕员工发现AI真的有用吗?所以他们要用自己的?最好别像Siri那样。诶?还真说不定。借着这次大新闻,苹果研究自家大模型的消息也不胫而走,而且Siri也将很快上线AI新功能。最新库克公开表态:生成AI技术潜力很大,但有问题需要解决,也侧面印证了他们的AI进展。所以苹果不是不搞,或许只是发布时间没到。担忧数据泄露据《华尔街日报》消息,苹果禁止员工使用的包括ChatGPT和Copilot。知名苹果产品追踪记者也在推特上进一步爆料,ChatGPT在苹果员工禁用名单上已经好几个月了。会有这样的决策倒也不稀奇。一方面,ChatGPT本身在数据使用方面一直备受争议。最初,除了API用户以外的所有用户聊天记录,都会被用来训练和提升模型性能,这意味着用户数据有被泄露的风险。事实上,今年3月确实发生这样的意外事故。一个bug导致一些用户的对话标题泄露,其他人能在自己的界面上看到这些信息。当时这个bug一度导致ChatGPT临时关闭。上个月,OpenAI正式推出新规定,以进一步保护用户数据安全:用户可以通过关闭聊天记录功能,来避免自己的个人数据被官方拿去训练。另一方面,出于安全方面的考虑,不少大型企业都出台相关政策要求员工不要使用ChatGPT。如亚马逊在1月就要求员工不要将代码输入ChatGPT,此前有消息称,它们发现了ChatGPT会模仿亚马逊内部代码。摩根大通在2月限制全球员工使用ChatGPT,原因是出于合规方面的考虑。还有更加离奇一些的,三星曾表示20天内因ChatGPT发生了3起数据泄露事故。而一直以强调安全著称的苹果,做出类似举措也就合情合理了。毕竟一旦员工不小心将机密项目的信息输入系统,这些内容就可能泄露给OpenAI。还有人表示,ChatGPT的输出结果还是有出错的可能,或许会导致bug产生、数据漏洞等,所以大公司禁止使用也合情合理。不过,ChatGPT爆火几个月以来,它在工作效率、工作创意上的提升是不可否认的。很多人都将它加入到了自己的工作流,包括陶哲轩这样的大佬。最初明令禁止学生使用ChatGPT的纽约公立中学,也在这两天内取消禁令。所以不免有人担心,苹果这样封闭ChatGPT,是否会扼杀自身的创新能力。值得一提的是,曾经禁止员工使用ChatGPT的亚马逊,近期也加入了大模型浪潮,发布自家大模型平台。这也开始让人猜测,大厂不是不拥抱ChatGPT,只是要拥抱自己的ChatGPT?事实上,苹果的最新语言大模型,真的有消息了。Siri被曝很快上线新AI功能据9to5Mac爆料,Siri将很快上线新的AI功能。新技术代号为Bobcat,早在今年3月就被爆出已经在进行测试了——首先是在最新tvOS 16.4 beta上测试,新框架叫做Siri Natural Language Generation(Siri自然语言生成)功能,之后这一功能进入到苹果的其他操作系统中。但爆料显示只不过是实现了在Apple TV上与Siri讲笑话。除此之外,还在试验如何将语言生成用于计时器。与此同时,这一新项目的领导人也被爆出。John Giannandrea,目前是苹果负责机器学习和AI战略的高级副总裁,直接向库克汇报。他早在2018年就加入苹果,负责监督整个公司的AI和ML战略以及Core ML和Siri技术的开发。在加入苹果之前,他曾在谷歌呆了八年,领导机器智能、研究和搜索团队。而就在最近的投资者电话会议上库克表态,也侧面证实了他们在做相关的研发,只不过发布时机还没到。此前,就有苹果员工曾抱怨Siri工作效率低下。Siri之所以逐渐走向没落,是因为内部团队混乱、决策缓慢、代码笨重,导致在Siri和AI开发上受到严重阻碍。更本质的原因,还在于技术研发和判断上。比如现在ChatGPT所展现的核心功能和技术,就曾被苹果高管否决过。就像长对话能力,他们认为会导致对话容易失控,而且“很花哨”。为了防止Siri胡言乱语,苹果选择让人工团队预先写出答案,并且还多次拒绝允许用户对Siri回答问题进行反馈,导致开发团队无法理解模型的局限。虽然不能肯定苹果禁用ChatGPT,与自身开发AI工具有关。但是苹果Siri上线新AI功能,想必也是不少人所期待了。参考链接:[1]https://www...
智能设备 2023-05-21 01:40:21 -
云从科技「从容」大模型正式发布!现场演示,与GPT-4同台竞技
新智元报道编辑:好困【新智元导读】5月18日,位列国内人工智能第一梯队的云从科技,正式发布了自主研发大模型——「从容」。5月18日云从科技正发布了其自主研发的从容大模型。云从科技董事长兼总经理周曦介绍,作为一种基于语言模型的人工智能系统,从容大模型可以根据给定的文本或语音数据,进行学习和分析,并输出相关的答案或建议,也能深度理解自然语言的含义和语义规则。不只是对话体验,从容大模型还可以编程、写作、解题等。云从还对「从容」与ChatGPT进行横向对比演示,在对同一真题的解答过程中,从容大模型的答题速度相较更快,但其正确率为71%,不仅低于正确率为73.34%的ChatGPT,还远低于正确率高达86...
智能设备 2023-05-21 01:40:02 -
小扎豪赌大模型!Meta重磅推出定制芯片MTIAv1和全新超算
新智元报道编辑:拉燕 Aeneas【新智元导读】全世界都在卷大模型,小扎也急了。如今,Meta为了发展AI,在定制芯片和超算上下了大赌注。Meta也有纯自研芯片了!本周四,Meta发布第一代AI推理定制芯片MTIA v1和超算。可以说,MTIA对Meta是一个巨大的福音,尤其是现在各家都在卷大模型,对AI算力的需求变得越来越高。小扎最近表示,Meta看到了「以有用和有意义的方式向数十亿人介绍人工智能代理的机会」。显然,随着Meta加大对AI的投入,MTIA芯片和超算计划将是Meta与其他科技巨头竞争的关键工具,现在没有哪家巨头不在AI上投入大量资源。可以看到,凭着定制芯片和超算,Meta在AI上下了大赌注。MTIA在最近的一次线上活动中,Meta拉开了开发自己的基础设施的序幕。新芯片全名是Meta训练和推理加速器,简称MTIA。MTIA是一种ASIC,一种将不同电路组合在一块板上的芯片,允许对其进行编程,以并行执行一项或多项任务。Meta副总裁兼基础设施负责人Santosh Janardhan在一篇博客文章中写道,MTIA是Meta「针对推理工作负载的内部定制加速器芯片系列」,它提供了比CPU「更高的计算能力和效率」,并且「为我们的内部工作负载定制」。通过结合MTIA芯片和GPU,Janardhan 表示,Meta相信「我们将为每个工作负载提供更好的性能、更低的延迟和更高的效率。」不得不说,这是Meta实力的投射。其实,一直以来,Meta在应用AI友好型硬件系统方面进展并不迅速。这影响了Meta和竞对(如微软、谷歌等)保持同步发展的能力。Meta基础设施副总裁Alexis Bjorlin在一次采访中表示,构建属于自己的硬件,Meta就有能力控制堆栈的每一层,包括数据中心设计到培训框架。这种垂直的整合水平对于大规模推动AI研究边界是必不可少的。在过去的十年里,Meta花费了数十亿美元聘请顶级数据科学家来构建新型AI模型。Meta也一直在努力将其许多更宏伟的AI创新研究投产,尤其是生成式AI。一直到2022年,Meta一直主要用的是CPU和专为加速AI算法而设计的芯片组合来维持其AI的运行。而CPU和芯片的组合在执行这类任务的效率上通常会低于GPU。于是Meta取消了原本打算在2022年大规模推广的定制芯片,转而订购了价值数十亿美元的英伟达GPU。引入这些GPU,Meta需要对旗下的几个数据中心进行颠覆性的重新设计。而为了扭转这一局面,Meta计划开发一款内部芯片,预计于2025年推出。这款内部芯片既能训练AI模型,还能运行AI模型,可谓性能强大。主角终于来了——新芯片名叫MITA,全称Meta Training and Inference Accelerator.这款芯片可以用来加速AI训练和推理的效率。研究团队表示,MTIA是一种ASIC,指的是一种在一块板上组合不同电路的芯片。通过编程,该芯片能同时执行一项或多项任务。专为AI工作负载定制的AI芯片Meta要知道,科技巨头公司的竞争说白了玩儿的就是芯片。比方说谷歌的TPU,用来训练Palm-2和Imagen。亚马逊也有自己的芯片,用于训练AI模型。此外,有消息称微软也在和AMD开发一款叫Athena的芯片。这不,MITA的到来也是Meta不甘示弱的表现。Meta表示,2020年他们创建了第一代的MITA——MITA v1,采用的是7nm工艺。该芯片内部内存可以从128MB扩展到128GB,同时,在Meta设计的基准测试中,MITA在处理中低复杂度的AI模型时,效率要比GPU还高。在芯片的内存和网络部分,还有不少工作要做。随着AI模型的规模越来越大,MITA也即将遇到瓶颈。Meta需要将工作量分担到多个芯片上。对此,Meta表示,会继续完善MITA在运行推荐的工作量时每瓦的性能。早在2020年,Meta就已经为内部工作负载设计了第一代MTIA ASIC。此推理加速器是共同设计的全栈解决方案的一部分,包括芯片、PyTorch和推荐模型。该加速器采用台积电 7nm工艺制造,运行频率为800 MHz,在INT8精度下提供102...
智能设备 2023-05-21 01:34:10 -
第四范式涂威威:打造专属大模型的三大关键策略
【网易科技5月20日报道】第七届世界智能大会,第四范式副总裁、主任科学家涂威威出席高峰会并表示:生成式AI让企业软件的人机交互和应用价值内核价值都有了质的提升,而想要打造企业专属大模型,还需要满足三大条件。据介绍,三大条件即形成高质量的闭环数据、具备多步推理思维链(Chain of thoughts)的学习能力、解决大模型落地效率问题...
智能设备 2023-05-20 21:57:16