AI商业洞察 | xMEMS将微型散热风扇技术扩展至AI数据中心
创始人
2025-05-09 14:01:55

AI+商业 

AI商业洞察

AI助力突破医疗中的“智力瓶颈”:让不可计算的变为可计算

德克萨斯大学医学分院(UTMB)正在借助AI技术,于CT扫描中自动分析患者的心血管风险。无论CT扫描是否与心脏相关,该系统均能自动开展评估,精准识别出心血管高风险患者。整个过程由AI算法独立完成,无需人工介入,从而显著提升了早期预防的效率以及数据的利用效能。

UTMB首席AI官Peter McCaffrey指出,AI在医疗领域的价值并非在于执行超人般的任务,而在于高效完成大量简单任务,进而增加发现漏诊的可能性。医院利用AI对每一次CT扫描进行心脏风险筛查,借助卷积神经网络(CNN)计算阿加茨顿评分,精准标记出存在潜在心脏病风险的患者。对于被标记为高风险的患者,系统会自动向其主治医生发送消息,并提醒患者进行后续检查。

此外,UTMB还运用AI技术检测中风和肺栓塞,自动识别CT图像中血流阻塞或血管断裂等关键迹象。这些AI算法仅需几秒钟就能完成诊断,助力医护人员迅速采取治疗措施,为患者争取宝贵的干预时间。

AI在医疗领域的广泛应用,成功解决了数据量庞大却未被充分计算的难题,打破了医疗领域的“智力瓶颈”,大幅提高了诊断效率与精准度。借助AI的力量,医疗机构能够高效处理海量数据,更早地发现潜在健康问题,为患者提供更优质的医疗服务。

Structify获得410万美元种子融资,助力将非结构化网页数据转化为企业级数据集

总部位于布鲁克林的初创公司Structify近日宣布完成410万美元种子轮融资。本轮融资由Bain Capital Ventures领投,8VC、Integral Ventures以及多位战略天使投资者参与。Structify推出的平台凭借其自主研发的视觉语言模型DoRa,实现了数据的自动化收集、清理和构建,致力于攻克AI和数据分析领域中数据准备这一难题。据行业调查显示,数据科学家在数据准备上所花费的时间占比高达80%。

Structify的目标是简化数据准备流程,提升其效率。用户可通过指定数据架构、选择数据来源,并部署AI智能体来精准提取所需数据。该平台能够处理多种数据来源,包括SEC文件、LinkedIn档案、新闻文章等。与传统方法不同,Structify的DoRa模型能够像人类一样浏览网页并提取信息,从而确保生成高质量的数据。

此外,Structify还采用了“四重验证”流程,结合AI技术和人工监督,以确保数据的准确性。平台还特别注重隐私保护,避免获取需要登录或涉及敏感信息的内容。

Structify计划利用这笔融资扩充技术团队,并进一步提升其在多个行业的数据处理能力。公司通过提供免费和付费套餐,致力于成为各行业的首选数据工具。

Mastercard推出Agent Pay,推动企业无缝使用AI搜索进行支付

Mastercard近日宣布推出Agent Pay,这一创新支付程序将支付系统集成到AI聊天平台中,旨在彻底改变企业和消费者通过AI搜索平台完成交易的方式。Mastercard首席数据与AI官Greg Ulrich表示,Agent Pay能够“闭合循环”,使AI搜索平台不仅限于提供信息,还能直接进行支付交易。

Agent Pay通过与OpenAI、Anthropic和Perplexity等AI公司合作,将Mastercard的支付网络与AI平台相结合,帮助商家、卡片用户和金融机构验证交易并防范欺诈。同时,Mastercard将其欺诈检测和交易争议处理系统应用于这些平台,进一步增强交易的安全性。

此外,Agent Pay还与Microsoft、IBM、Braintree和Checkout.com等公司合作,扩展支付网络并为商家提供更多功能。它还将与银行及金融机构整合,进一步提升其支付功能。Agent Pay与传统生成性AI不同,它依赖于Mastercard的令牌化技术,通过加密保护交易中的个人信息。

Ulrich强调,Agent Pay与生成性AI结合,为企业构建AI代理工作流,提供包括供应商搜索、合同起草和交易支付等全流程支持。这一创新标志着AI和支付系统的融合,提升了用户体验和商家效率。例如,一位即将30岁的女性可以与AI代理交流,获取根据个人风格、场地氛围和天气预测推荐的服装和配饰,并完成购买。

Tripp推出Kōkua AI,跨平台提供个性化心理健康指导

XR健康公司Tripp近日推出了Kōkua AI,一款旨在提供个性化实时情绪支持的心理健康教练。Kōkua AI基于Tripp平台上超过2300万个情绪数据点,利用AI技术为用户提供量身定制的支持,覆盖手机、虚拟现实(VR)及语音平台。Kōkua(源自夏威夷语“无私关怀”)不仅能与用户进行对话,还能理解、反映并回应用户的情感需求。

Kōkua AI的功能亮点包括语音克隆技术,用户可以听到自己声音的心理健康指导和肯定;通过Tripp的核心引擎,提供互动式心理健康检查和引导;实时生成基于情绪的可视化图像,以及沉浸式3D环境,帮助用户放松和集中注意力。此外,Kōkua还支持通过手机拨打电话访问心理健康支持,未来还将扩展至智能眼镜和增强现实平台。

自2024年在移动端和虚拟现实平台推出Beta版本以来,Kōkua AI已经显著提升了用户参与度。Tripp的创始人Nanea Reeves表示:“Kōkua的目标是通过AI为每位用户提供量身定制的情感支持,帮助用户实现情绪调节和心理健康管理。”Kōkua的推出标志着AI在心理健康领域的巨大潜力,尤其是在提升心理支持的可及性方面取得了重要突破。

xMEMS将微型散热风扇技术扩展至AI数据中心

xMEMS Labs近日宣布,将其创新的µCooling风扇芯片平台扩展至AI数据中心。该平台基于单片MEMS技术,利用硅材料制造微型风扇,提供高效的热管理解决方案。xMEMS表示,其技术将成为行业首个模块内主动热管理解决方案,专为高速光学收发器设计,特别是在400G、800G和1.6T光学收发器中应用。

与传统的冷却方法不同,µCooling专注于较小、温度受限的组件,特别是18W TDP或更高的光学收发器数字信号处理器(DSP)。这些组件的温度问题限制了性能和可靠性。µCooling技术能够去除高达5W的局部热量,使DSP工作温度降低15%以上,热阻减小20%以上,从而提高数据传输速率、改善信号完整性并延长模块寿命。

µCooling的设计创新之一是其独立的气流通道系统,能够有效保护光学组件免受灰尘或污染影响,同时提供显著的冷却性能。xMEMS的无机械运动的固态设计,确保了无维护的可靠性和高生产量制造能力。

随着AI工作负载对数据中心互联的需求急剧增长,µCooling为高密度、高性能的光学模块提供了理想的解决方案,解决了AI基础设施中的关键热管理瓶颈。

LOKA协议:引领AI智能体身份与伦理互操作性新标准

随着AI智能体的广泛应用,如何确保其身份识别、伦理合规和问责问题成为亟待解决的挑战。来自卡内基梅隆大学的研究人员提出了一种新型协议——LOKA(Layered Orchestration for Knowledgeful Agents),旨在为AI智能体提供统一的身份和伦理治理框架。LOKA协议与谷歌的A2A(Agent2Agent)协议以及Anthropic的MCP(Model Context Protocol)等现有标准并行,推动智能体间的互操作性。

LOKA的核心是“通用智能体身份层”,为每个智能体分配唯一且可验证的身份。这一身份系统不仅允许智能体和用户验证身份,还可以确保智能体的行为符合伦理标准。LOKA协议的架构包括四个层次:身份层、通信层、伦理层和安全层。伦理层为智能体提供灵活的决策框架,确保智能体的行为符合不同的伦理标准。而安全层则使用量子抗性密码学技术保护数据安全。

LOKA的创新在于它能够为智能体提供透明的决策过程,确保企业能够追踪智能体的决策路径,防止智能体在不同系统间操作时出现错误或泄露私人数据。研究人员表示,LOKA的目标是构建一个可信、可问责的智能体生态系统,促进跨系统的伦理互操作性。

d1框架:提升扩散语言模型推理速度与效率

来自UCLA和Meta AI的研究人员提出了d1框架,利用强化学习(RL)显著提升扩散式大语言模型(dLLM)的推理能力。与传统的自回归模型(如GPT)不同,dLLM通过逐步“去噪”的过程生成文本,从而在生成速度和信息处理上展现出优势,特别是在长文本生成任务中。

传统的自回归模型按顺序生成文本,每次生成一个令牌,而dLLM则从一个部分遮蔽的文本开始,逐步细化生成内容,允许模型在每个步骤中同时考虑所有上下文,这使得它们在生成时具有更好的并行处理能力和更快的推理速度。

然而,dLLM在推理能力上仍然落后于自回归模型。为了解决这一问题,d1框架通过两阶段的后训练过程进行了优化。首先,使用“s1k”数据集对模型进行监督微调,培养基础推理行为;随后,应用新的强化学习算法——diffu-GRPO,克服了扩散模型推理中计算开销大的问题,提升了推理效果。

实验证明,使用d1框架的LLaDA-8B-Instruct在数学和逻辑推理任务中表现出色,显著优于传统的自回归模型。研究人员认为,d1增强的dLLM可以为企业带来高效的推理能力,尤其适用于实时软件工程、深度研究等工作负载。

RAG系统可能降低LLM的安全性,而非提高

RAG(检索增强生成)系统被广泛应用于企业AI中,以提供基于数据的准确和更新的信息。然而,Bloomberg的研究表明,RAG的使用可能在意外情况下绕过LLM的安全防护。研究发现,通常在标准设置下能够拒绝有害查询的模型,在使用RAG时会产生不安全的回应。例如,当RAG系统应用于Llama-3-8B时,其不安全的回应率从0.3%激增至9.2%。

研究人员推测,这可能是由于LLM在处理长文本时没有充分考虑安全对齐。随着更多文档的引入,模型的安全性往往会下降,哪怕这些文档本身是安全的。Gehrmann认为,RAG系统固有的风险难以避免,企业应该围绕RAG系统设计适当的业务逻辑和事实检查,以防止其绕过安全防护。

Bloomberg的第二篇研究还提出了一个专为金融行业设计的AI内容风险分类法,解决了金融领域特有的风险,如金融不当行为和机密泄露等。研究强调,现有的通用安全模型往往无法应对行业特定的风险,企业应根据自身的监管环境制定专门的安全框架。

对于企业AI的实际应用,研究建议,企业应重新审视RAG系统的安全架构,设计集成化的安全系统,以应对检索内容与模型防护的交互。

Liquid AI推出“Hyena Edge”模型,革新边缘设备上的大型语言模型

Liquid AI,来自麻省理工学院(MIT)的初创公司,正在挑战目前以Transformer架构为基础的主流大型语言模型(LLM),如OpenAI的GPT系列和谷歌的Gemini系列。近日,Liquid AI推出了名为“Hyena Edge”的新型卷积模型,专为智能手机及其他边缘设备设计,预计将在2025年国际学习表征会议(ICLR)上亮相。

Hyena Edge模型在计算效率和语言模型质量上超越了传统的Transformer基线。在三星Galaxy S24 Ultra智能手机上的实际测试中,Hyena Edge展现了更低的延迟、更小的内存占用以及优于同类Transformer++模型的基准成绩。

与传统的注意力机制密集型小型模型不同,Hyena Edge通过将三分之二的分组查询注意力(GQA)操作替换为来自Hyena-Y系列的门控卷积,采用了全新的架构设计。这一架构是Liquid AI基于“量身定制架构合成(STAR)”框架的成果,后者利用进化算法自动设计模型骨架,优化了延迟、内存使用和质量等硬件特定目标。

Hyena Edge在多个小型语言模型基准测试中表现出色,甚至在Wikitext和Lambada的困惑度得分上有所提升,在PiQA、HellaSwag和Winogrande的准确率上也表现更好,显示出其效率提升并未以牺牲预测质量为代价。

Liquid AI计划在未来几个月将Hyena Edge等基础模型开源,旨在打造高效且通用的AI系统,适应从云端数据中心到个人边缘设备的各种应用需求。

相关内容

热门资讯

今年我省粮食产量达515.56... (来源:辽宁日报)转自:辽宁日报 图为在中储粮(盘锦)储运有限公司,装运粮食的重型卡车排起长队...
国家发展改革委部署促进投资止跌... (来源:辽宁日报)转自:辽宁日报 新华社北京12月13日电 (记者魏玉坤) 记者13日从全国发展和改...
江苏省实施《中华人民共和国森林... (来源:新华日报) 目 录 第一章 总则 第二章 森林、林木和林地权属管理...
姜堰数字化产品讲“活”理论 (来源:新华日报) □ 本报记者 卢佳乐 通讯员 姜宣 “王教授,您约我‘喝茶论道’,...
联合国维和部队在苏丹遇袭 6人... 转自:财联社【联合国维和部队在苏丹遇袭 6人死亡】财联社12月14日电,当地时间13日,苏丹武装部队...