星期二, 3月 19, 2024

随客论坛现已开放,每月千台云主机免费领  !

首页前沿人工智能

人工智能

最近更新

国内Galaxy AI变脸?三星即将功能收费

3月12日消息,三星前不久发布的最新款旗舰手机Galaxy S24系列,引入了全新“Galaxy AI”功能,主打通话实时翻译、写作助手、笔记助手、即圈即搜等AI功能。 与海外市场不同的是,在中国市场,三星Galaxy S24的AI功能主要是通过与百度、美图、WPS等合作实现的。 三星在1月18日发布的Galaxy AI官方新闻稿上表示,“直到2025年底Galaxy AI功能将在受到支持的三星Galaxy设备上免费提供。” 然而这一承诺在中国市场却变卦了,“笔记助手”这一功能仅可免费使用180天,后期则需要收费。 据媒体报道,三星授权体验店工作人员表示,WPS AI在手机上的用处主要是可以使用智能语音助手去写攻略、写计划、提炼文档要点等。 现在购机领取完权益后,180天内该功能可以免费使用,但是后期会怎么收费暂未通知。 而另一位工作人员则表示,S23系列此后部分AI功能将收费的情况属实,收费价格大约百元。 与此同时,三星天猫官方旗舰店工作人员的回复话术也变成了:使用部分AI功能前需要登录三星账户,目前您可以免费使用Galaxy Al功能。 “未来三星可能将其部分或全部AI功能变更为有偿服务,第三方提供的Al功能基于合作方为有偿服务。” 目前WPS AI服务或许已经有了变化,今后与美图、百度等合作的AI功能不知道是否也会产生变化。

AI视频大模型公司爱诗科技完成亿级A1轮融资

3月12日消息,AI视频生成应用公司爱诗科技最近完成了亿级人民币 A1轮融资。由达晨财智领投,光源资本担任独家财务顾问。 据悉,本轮融资将用于人才建设和资源储备。 爱诗科技创立于2023年4月。据介绍,其团队成员来自清华、北大、中科院等顶级学府,曾在字节、快手、腾讯、微软研究院等核心技术团队工作,拥有世界一流的计算机视觉算法攻坚能力和解决系统工程问题的经验。 另外,该公司的海外版产品PixVerse于2024年1月正式上线,国内版(爱诗视频大模型)近日也已上线内测。

从骁龙X80到AI Hub软硬全布局 高通开启万物智能时代

2024年世界移动通信大会(MWC2024)于当地时间2月26日至29日在西班牙巴塞罗那召开。 这一届的主题是“Future First(未来先行)”,主要围绕六个子题展开,即超越5G、智联万物、AI人性化、数智制造、颠覆规则和数字基因。 这些也刚好是高通目前的发力方向,今年在大会上,高通着重展示了AI、5G、Wi-Fi等领域的技术革新。 更强大的5G:AI赋能的5G Advanced性能 首先在5G方面,高通在MWC2024上发布了骁龙X80 5G调制解调器及射频系统,峰值下载速度为10Gbps,上传速度可达3.5Gbps,同时支持5G毫米波和sub-6GHz,并且支持5G Advanced特性,目前很多国家和地区都在这一方向大力发展,将带来包括网速、时延等方面的全面提升,是往6G演化的必经之路。 不仅如此,高通首次在5G调制解调器中集成了NB-NTN卫星通信,可以预料,今年下半年至明年,将会有数款能够基于此实现卫星通信的手机等终端上市,最大的意义就是能够在危机时候保证用户不断联,关键时刻及时呼救。 此外,骁龙X80还搭载了专用张量加速器,通过AI优化来提升吞吐量、服务质量(QoS)、频谱效率、能效和毫米波波束管理,扩大网络覆盖范围并降低时延。 按照惯例,今年下半年登场的骁龙旗舰平台预计将会集成骁龙X80,搭载该平台的商用终端预计将于2024年下半年发布,包括手机、平板、手表、耳机等各类产品都将陆续登场。 高通的连接产品也一直都是移动通信行业中的最优选,不单单是用户接触较多的手机,还包括路由器、车载模组等各种终端设备,TCL、美格智能、中国联通、广和通等均在MWC上发布了搭载高通方案的新产品,备受用户关注。 同时,高通还与中兴通讯、中国移动、当红齐天共同启动“5G-A XR大空间对战游戏”规模落地计划,目前在当红齐天首钢一高炉SoReal科幻乐园内,四方联合已经完成基于5G-A大容量、低时延及智能化XR业务保障方案的多并发大空间XR竞技游戏业务试点,12路XR业务同时接入时平均空口时延低于10ms。 这次合作项目不仅能提供超高清的画面质量,还能保证低时延、高稳定的网络连接,让玩家感受到沉浸式的竞技乐趣。 AI增强的Wi-Fi系统:FastConnect 7900刷新Wi-Fi 7体验 在骁龙X80之外,高通还推出了FastConnect 7900移动连接系统,预计将于2024年下半年商用,这是行业首个支持AI优化性能并在单个芯片中集成Wi-Fi 7、蓝牙和超宽带技术的解决方案。 FastConnect 7900集成超宽带技术、Wi-Fi测距和蓝牙信道探测,峰值速度可达5.8 Gbps,并支持具有空间音频和ANT+功能的蓝牙5.4标准。 高通还打造出一套强大的近距离感知技术,支持数字钥匙、物品寻找和室内导航等近距离感知应用场景的无缝体验。OEM厂商以及开发者可以根据这些集成的关键技术提供一系列近距离感知应用,而消费者可根据使用场景自主选择使用相应技术。 与前代相比,FastConnect 7900采用了全新的射频前端模组和架构,在降低40%系统功耗的同时提高能效;该系统还助力减少25%占板面积,从而留出更大的电池空间以提升续航能力。 同时也加入了AI技术的增强,让FastConnect 7900可适应特定用例和环境,有效优化能耗、网络时延和吞吐量,让终端功耗能够下降高达30%,且所有过程都在终端侧运行,不会获取用户数据或进行内容监测,从而保 护个人隐私。 AI功能开花结果:高通AI Hub让AI开发高效简单 深入用户 从上面两款新品可以看出,如今AI已经成为整个通信、科技行业重要的发展方向,未来将不断通过AI来打造更具个性化、更智能的体验。 比如在2024 MWC期间荣获GTI移动技术创新突破奖的第三代骁龙8移动平台,这是高通首个专门为生成式AI打造的平台,可支持超过100亿参数的生成式AI模型,AI性能遥遥领先,目前许多安卓旗舰机型已搭载这一平台。 高通在MWC上还携手荣耀、小米和OPPO等全球和中国合作伙伴,展示了第三代骁龙8支持的强大AI功能。小米在MWC展前发布的龙年开年旗舰Xiaomi 14 Ultra,在第三代骁龙8的赋能下,全面定义了未来移动影像新层次,并在性能、连接、音频等方面带来出色体验。荣耀在其巴塞罗那全球发布会带来的荣耀Magic6 Pro,搭载第三代骁龙8,支持70亿参数的AI端侧大模型,带来了Magic Portal等AI驱动的智慧体验。 这些AI功能都已经通过第三代骁龙8以及厂商的系统能力,深入到了用户的生活中去,让AI不再是普通人触不可及的“概念”,而是逐渐实用、好用、易用。 除了手机之外,高通还在去年底发布了专为AI PC打造的骁龙X Elite平台,可以在端侧运行超过130亿参数的生成式AI模型,AI处理速度是竞品的4.5倍,高通这次也在展会上演示了全球首个在Windows...

高通AI大揭秘:NPU引领四兄弟无敌

生成式AI的变革,对于基础硬件设计、软件生态开发都提出了新的、更高的要求,尤其是底层硬件和算力必须跟上新的形势,并面向未来发展做好准备。 近日,高通特别发布了《通过NPU和异构计算开启终端侧生成式AI》白皮书,对于终端侧生成式AI的发展趋势,以及高通骁龙处理器的多模块异构计算引擎,尤其是NPU的设计及优势,都进行了详细解读。 生成式AI虽然这两年才火热起来,但是AI的发展历史悠久,高通也早在2007年就打造了Hexagon DSP,其控制和标量架构正是后续NPU的基础。 2015年发布的骁龙820处理器集成了首个高通AI引擎,支持成像、音频和传感器运算。 之后,2018年的骁龙855又增加了Hexagon张量加速器。 2020年骁龙888里的全新架构Hexagon NPU堪称里程碑转折,并在之后的三代骁龙8中持续迭代演进,AI性能、效能和范围不断拓展。 比如第三代骁龙8的张量运算核心的峰值性能就大幅提升了98%,同时依然保持高超的能效。 高通在AI方面采用的是异构计算引擎思路,由Kryo CPU、Adreno GPU、Hexagon NPU、传感器中枢四大核心模块共同组成,彼此协作。 根据终端类型、终端层级、关键性能指标、时延等因素的不同,这种架构可以使用不同的组件进行AI处理,以达到最佳效率。 比如说,CPU计算量一般,但擅长顺序控制和即时性,非常合对延迟要求非常高的场景,比如时序敏感性小模型,比如卷积神经网络模型(CNN)或者特定大语言模型(LLM)。 GPU擅长高精度格式的并行处理,比如对画质要求非常高的图像、视频处理,同时算力非常强,可运行大规模的模型。 NPU擅长标量、向量和张量数学运算,而且能效非常高,能够以极低功耗实现持续稳定的高峰值性能,在基于LLM和LVM(大视觉模型)的不同用例中,比如说Stable Diffusion或其他扩散模型,每瓦特性能十分出色。 高通传感器中枢则能以极低功耗运行始终开启的用例,可获取大量端侧情境信息,让生成式AI体验更加个性化,这也是终端侧AI的独特优势之一,并且信息保留在终端上,不会联网上传到云端,隐私更安全。 如此设计的异构计算,能够实现最佳的应用性能、能效和电池续航,以最大化提升生成式AI终端的用户体验。 这里重点说说NPU。 NPU全程为神经网络处理器,是专为低功耗加速AI推理而打造的硬件模块,架构上随着新AI算法、模型和用例的发展而不断演进。 Al工作负载主要包括由标量、向量和张量数学组成的神经网络层计算以及非线性激活函数。 优秀的NPU设计,能正确选择如何处理AI工作负载,同时与CPU、GPU等其他模块协同执行,并与AI行业发展方向保持高度一致。 高通Hexagon NPU就是为了以低功耗实现持续稳定的高性能AI推理而设计,其差异化优势在于系统级解决方案、定制设计和快速创新。 通过定制设计NPU并控制指令集架构(ISA),高通可以让NPU快速演进和扩展,以解决遇到的任何瓶颈问题,并优化性能。 高通透露,最初开始研究NPU的时候,关注的是一些简单用例,比如用于音频和语音处理的卷积神经网络模型(CNN)和长短期记忆网络模型(LSTM),2015年第一代高通AI引擎的Hexagon NPU就集成了标量和向量运算扩展。 2016-2022年间,高通将研究方向拓展至AI影像和视频处理,比如暗光拍照、降噪、多帧处理等,同时引入了Transforme层处理,因此增加了张量运算核心(Tensor Core)。 2023年,Hexagon NPU开始支持LLM和LVM,并支持Transformer,可以更好地处理基于Transformer的模型。 如今第三代骁龙8集成的Hexagon NPU已经能够在终端侧运行高达100亿参数的模型,无论是首个token的生成速度,还是每秒生成token的速率,都处在业界领先水平。 值得一提的是,Hexagon NPU还引入了用于图像处理的微切片推理技术,增加了能够支持所有引擎组件的大共享内存,最高支持到4.8GHz频率的LPDDR5X,LLM处理能力更上一层楼,可快速处理百川、Llama2等等。 说了半天原理,看看实际性能表现,首先是第三代骁龙8和三款安卓、iOS平台竞品的对比。 鲁大师AIMark V4.3测试中,第三代骁龙8的总分达到了竞品B的5.7倍、竞品C的7.9倍。 安兔兔测试中,第三代骁龙8的总分是竞品B的6.3倍。 MLCommon MLPerf推理的不同子项中,比如图像分类、语言理解、超级分辨率等,第三代骁龙8也都保持领先。 PC端对比骁龙X Elite和其他x86架构竞品。 Windows系统下的UL Procyon AI推理测试中,骁龙X Elite在ResNet-50、DeeplabV3等测试项目中都大幅领先,总分是竞品A的3.4倍、竞品B的8.6倍。 近日在巴塞罗那举办的MWC 2024大会上,高通还展示了在终端上运行的多模态生成式AI模型。 在第三代骁龙8上运行的首个大语言和视觉助理大模型(LLaVA),能基于图像输入,回答用户提出的问题。 比如为视障人士在城市内进行导航,就可以将图像信息转换成语音,帮助他们了解周围的事物。 顺带一提,高通还展示了基于骁龙X Elite笔记本,首个在终端侧运行的超过70亿参数的大型多模态语言模型(LMM),可接受文本和音频输入(如音乐、交通环境音频等),再生成多轮对话。 硬件AI能力之上,高通还打造了AI软件栈(AI Stack)。 它可以支持目前所有的主流AI框架,包括TensorFlow、PyTorch、ONNX、Keras;支持所有主流的AI运行时,包括DirectML、TFLite、ONNX Runtime、ExecuTorch;还支持不同的编译器、数学库等AI工具。 此外,高通还有AI Studio,可为开发者提供开发过程中需要用到的各种相关工具,包括支持模型量化和压缩的高通AI模型增效工具包(AIMET),能够大幅提高模型运行的效率。 高通认为,AI终端市场的发展还在初期阶段,但已经为高通的不同产品和解决方案带来了显著的改进,对消费者的重要性也在不断增加,无论教育、医学还是养老等各个领域,AI的作用将愈发凸显。 互联网出现的时候,只有少数人能够利用PC上网,而智能手机的出现让数十亿人都能够连接网络。 相信终端侧生成式AI的发展也是如此,它将让所有人都能充分利用生成式AI,改变工作、娱乐和生活中的切身体验,变革各行各业。

极空间 NAS 上线“AI 实验室”功能:自然语言搜图、以图搜图、文字识别

3 月 7 日消息,极空间 NAS 官方宣布,全新 AI 功能 ——【AI 实验室】已正式上线,功能包括:自然语言搜索、相似图片搜索和图片文字识别。 据介绍,【AI 实验室】可以帮助用户快速找出极相册中需要的图片,附内容如下: 自然语言搜索 智能搜图,开启后,可以使用自然语言搜索图片。 点击智能 AI,开启智能搜图,在搜索框中输入文字“狗”,通过 AI 计算后,稍等片刻,就会把极相册中带“狗”的照片展示出来。 相似图片搜索 以图搜图,开启后,可以通过一张照片找到相似内容或是风格的其他图片。 点击智能 AI,开启以图搜图,在极相册中找到一张你想搜索的图片 A,点击右侧搜索图标,稍等片刻,就会将极相册中和图片 A 相似图片都搜出来。 图片文字识别 识别图片中的文字,开启后,可以一键提取图片中包含的文字信息。 点击智能...

Meta正构建巨型AI模型,支持旗下所有产品的视频推荐引擎

3月7日消息,美国时间周三,Meta公司一位高管透露,公司正在对人工智能进行重大投资,旨在打造一个先进的系统,能够支持Facebook等旗下各个平台视频的推荐引擎。 Meta旗下负责Facebook平台的汤姆·艾里森(Tom Alison)透露,这个项目是公司“2026年技术发展蓝图”的关键一环。他详细解释称,这一全新AI推荐模型将不仅支持类似于TikTok的Reels短视频服务,还将覆盖更多的传统长视频内容。 艾里森在旧金山的摩根士丹利科技会议上提到,目前Meta对各个产品均采用独立的推荐模型,如Reels、Groups和核心的Facebook信息流等。新的巨型AI模型预计将改变这一局面,实现平台间的统一推荐。 作为Meta进军人工智能领域的重要一步,该公司已在购买英伟达GPU上投入数十亿美元。这些GPU是AI研究人员训练大语言模型的主要工具,为ChatGPT等生成式人工智能模型提供动力。 艾里森还具体说明了Meta技术蓝图的“第一阶段”,即公司正在将现有推荐系统从传统计算机芯片转向GPU,以提高产品性能。 他透露,受去年大语言模型热潮影响,Meta高层对这些模型处理海量数据及具备聊天等通用能力的表现深感震撼。因此,Meta看到了开发能跨产品应用的巨型推荐模型的潜力,并在去年迅速搭建了这一新架构。目前,该模型已在Reels短视频服务上初步测试。 艾里森进一步指出,这种新的“模型架构”在Facebook核心应用上取得显著成效,帮助增加了8%至10%的观看时间。这表明该模型在数据学习能力上超越前代模型。 他强调,Meta正在加大投资,以确保能够在合适的硬件上扩大这些模型的规模。目前,该公司正在系统架构的“第三阶段”,重点是验证新技术的有效性,并推广至多个产品。 艾里森表示:“我们的目标不仅是为Reels短视频服务提供动力,还计划使用单一的巨型模型驱动整个视频推荐生态系统,并最终将信息流推荐产品纳入其中。我们相信,这样不仅能使推荐内容更吸引人、更相关,还能提升推荐引擎的反应速度。” 若计划成功,它将如何改变用户体验?艾里森解释说:“比如,用户在Reels中发现感兴趣的内容,当回到Facebook信息流时,基于之前的数据和模型分析,我们能为他们展示更多类似内容。” 为支撑这一宏伟计划,艾里森透露Meta已积累大量GPU资源。这些高性能计算单元不仅用于驱动视频推荐模型,还将支持公司在更广泛生成式人工智能领域的项目,例如开发智能数字助理。 Meta正探索生成式人工智能技术的多种应用场景,包括在核心信息流中加入更复杂的聊天工具,允许用户在看到感兴趣的内容时,通过简单操作就能获取更多相关信息。例如,面对泰勒·斯威夫特(Taylor Swift)的相关推荐帖子,用户可能仅需点击一个按钮,即可向Meta AI提问,获得更多信息。 此外,Meta还计划将AI聊天工具整合至群组中,比如在Facebook的烘焙群组中,成员能就甜点制作问题直接从数字助理获得答案。 艾里森称:“我相信,我们有能力将生成式人工智能带入到多用户的互动环境中去。”

OpenAI竞争对手Anthropic发布最新大模型Claude 3

3月5日消息,当地时间周一,人工智能初创公司Anthropic发布了其最新的人工智能模型Claude 3。 该公司声称,Claude 3是迄今为止他们推出的速度最快、性能最强的人工智能模型。 据悉,Claude 3分为三个版本,分别为Opus、Sonnet和Haiku。 其中,Opus的能力最强,在多项行业基准测试中的表现优于OpenAI的GPT-4和谷歌的Gemini Ultra。如从本科生知识水平、研究生推理能力和基础数学等领域。 相比之下,Sonnet和Haiku两个版本参数规模更小,价格也更低。 另外,Opus和Sonnet两个版本已从周一起在159个国家上线,而Haiku版本也将很快推出。

消息称Meta将在7月发布Llama 3:回答更大胆,能处理有争议问题

2月29日消息,谷歌正努力应对其Gemini聊天机器人因回答不准确而引发的“翻车”事件,而Meta希望其计划于7月发布的新版大语言模型Llama 3能更有效地处理这类有争议的问题。 去年7月,Meta推出了Llama 2,强化了其应用程序中人工智能助手的功能。为预防模型回答可能引起争议的问题,Meta引入了多项安全措施。然而,根据Meta内部员工的说法,这些安全措施让Llama 2的回答过于谨慎,缺乏灵活性,这在Meta的管理层和这款大模型研究人员之间引起了一些不满。 虽然对于如何制造炸弹或实施谋杀等极端问题,实施安全回答措施是非常必要的。但问题在于,Llama 2连对一些争议性较低的问题也采取了回避策略。例如,当询问如何在上班时间摸鱼时,Llama 2的回答是:“尊重并遵守公司的政策和指导方针是至关重要的。”这种回避策略也适用于如何捉弄朋友、赢得战争或关闭汽车引擎等其他问题。 Meta的工作人员表示,Llama 2采取这种保守策略是为了避免潜在的公关灾难。但据知情人士透露,研究人员目前正在尝试放宽Llama 3的安全措施,以便在用户提出困难问题时,能够提供更多的交互和背景信息,而不是简单地回避这些棘手的问题。 理论上,Llama 3将拥有更强大的语义理解能力,能够准确辨别一个单词在不同上下文中的多重含义。例如,Llama 3可能会理解英文“kill a vehicle’s engine”(关闭机动车的发动机)中的“kill”是指“关闭”,而非“杀害”。 据悉,Meta计划在未来几周内为Llama 3分配专门负责语气和安全培训的内部人员,以提升模型的反应灵敏度和精确度。尽管计划在7月发布Llama 3,但发布时间表仍可能调整。作为一款开源大语言模型,Llama 3不仅将支持Meta旗下的人工智能助手,还将向外部开发者免费提供,以便他们开发自己的聊天机器人。 随着Meta试图使Llama 3在处理难题时更加自由,这凸显了人工智能公司面临的挑战:在开发吸引用户的有趣产品的同时,还要避免产生不恰当或不准确的回答引起争议。就在上周,谷歌因其Gemini聊天机器人的图像生成功能出现历史不符合问题而被迫暂停该功能。 对此,谷歌高级副总裁普拉巴卡·拉加万(Prabhakar Raghavan)在一篇博客文章中解释说,该公司已对该功能进行了调整,以确保它不会落入过去图像生成技术的陷阱,如产生暴力或色情图像。但他也承认,这种调整在某些情况下导致了“过度补偿”,在其他情况下则表现得“过于保守”。 Llama作为Meta人工智能战略的核心,对公司具有重大意义。Meta希望通过人工智能技术提升其广告工具的效果,并增强社交媒体平台的吸引力。本月早些时候,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)向投资者表示,今年的重点包括推出Llama 3和“扩展Meta人工智能助手的实用性”。 为了使Llama 3与OpenAI的GPT-4媲美,Meta正努力赋予Llama 3多模态能力,即理解和处理文本、图像或视频等多种信息的能力。然而,据Meta内部人士透露,由于研究人员尚未开始对Llama 3进行微调,因此尚不清楚其是否将具备多模态功能。微调是开发过程的关键环节,通过为现有模型提供额外数据,使其能够学习新信息或任务。 据知情人士透露,Llama 3的最大版本预计将拥有超过1400亿个参数,远超Llama 2,这意味着模型在训练中能学习的内容范围将大幅扩展。参数数量越多,通常意味着模型能提供的结果越精确,不过较小的模型可能在处理速度上更有优势。Llama...

本周热点