前 Stability AI CEO:AI 革命将让人类智力价值归零,未来 1000 天面临巨变
2025年9月28日 15:00
前 Stability AI CEO:AI 革命将让人类智力价值归零,未来 1000 天面临巨变AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20252在最近的一期播客《影响理论》中,前 Stability AI CEO Emad Mostaque 发表了一个惊人的观点:在接下来的1000天里,人工智能(AI)将不仅取代大量工作岗位,还将彻底改变人类的经济结构。他的新书《最后的经济》探讨了这一主题,Emad 认为,随着 AI 的快速发展,人类劳动的价值可能会归零,甚至出现负值的情况。Emad 最初在金融领域工作,后创办了 Intelligent Internet。他在节目中提到,当前的经济体系正在经历 终结,未来将出现由 AI 驱动的 最后经济体。在这样的新经济中,传统的经济指标,如国内生产总值(GDP),将不再适用,人类劳动的价值和经济的基本构成将被重新定义。为了应对这个剧变,Emad 提出了一个全新的经济测量模型,名为 MIND 框架,它关注四种核心资本类型:物质资本、智力资本、网络资本和多样性资本。他指出,现代经济中应重视的是经济的 流动性 与 弹性,而不是单一的 GDP 指标。只有通过有效测量这些新变量,才能更好地理解经济的运作和变化。Emad 还谈到了人类历史上四次重要的经济 反转,每一次都代表着经济权力和价值创造方式的根本变化。他认为,我们现在正处于最后一次反转的阶段,AI 的崛起将主导未来的经济发展。随着 AI 逐渐取代认知劳动和传统的脑力工作,人类在经济中的地位将面临重大挑战。在这种背景下,Emad 强调了重新审视其他三种资本的重要性,以便建立一个更加稳定和繁荣的社会。他的观点不仅揭示了 AI 对经济的深远影响,也为个人和社会应对即将到来的变革提供了新的思考。划重点: AI 将在未来1000天内取代大量工作岗位,重塑人类经济结构。 人类劳动的价值可能归零,甚至变成负值。 Emad 提出 MIND 框架,强调物质、智力、网络和多样性资本的重要性。AI新词MIND框架EmadMostaqueStabilityAI本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21626大模型时代的警钟:Richard Sutton 呼吁重拾智能理解的科学探索
2025年9月28日 15:00
大模型时代的警钟:Richard Sutton 呼吁重拾智能理解的科学探索AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20255在最近举办的 RL China 2025 开幕式上,伦敦大学学院的汪军教授与 强化学习之父 Richard Sutton 进行了深入对话,探讨了智能的本质和未来发展方向。汪军教授作为智能信息系统领域的权威,与 Sutton 共同回顾了强化学习(RL)的学科根基,并关注当下人工智能行业的快速扩张对基础科学研究的影响。Sutton 指出,当前的人工智能技术,尤其是大规模语言模型(LLM),虽然在实际应用中展现出强大的能力,但并不是真正理解智能的途径。他强调,LLM 在训练完成后就失去了学习能力,因为它们缺乏明确的目标和奖励机制。相比之下,强化学习强调的是通过与环境的互动来达成目标,这种方式能更好地理解和模拟智能的运作过程。Sutton 提出,真正的智能需要对目标进行明确的定义,并通过 奖励 信号来驱动学习。他认为,从经验中学习是强化学习的核心,而不仅仅依赖于梯度下降等单一方法。为了推动智能的发展,研究者们需要将搜索与梯度下降相结合,以此探索更多的可能性。他还强调,尽管行业资金的涌入促进了应用发展,但这并不应让科学研究偏离长远目标。在对年轻研究人员的寄语中,Sutton 鼓励他们关注基础科学,强调人工智能的探索是一个长期的过程,而非短期内能够解决的问题。他提到,虽然工业界更关注当下可实现的技术,但科学界必须致力于探索尚未解决的根本性问题,以推动智能的真正理解。此次对话提醒我们,在追求技术进步的同时,不能忽视对智能本质的深入理解。强化学习大规模语言模型RLChina2025RichardSutton本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21625Moondream3.0发布,多项基准测试超越了 GPT-5 等顶尖模型
2025年9月28日 15:00
Moondream3.0发布,多项基准测试超越了 GPT-5 等顶尖模型AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20257在最新发布的 Moondream3.0预览版中,这款以高效混合专家(MoE)架构为基础的模型展示了令人惊叹的视觉推理能力。Moondream3.0拥有总共9亿参数,但仅激活2亿参数的轻量化设计,使其在复杂场景中的表现尤为突出。与之前的 Moondream2版本相比,3.0在多项基准测试中超越了如 GPT-5、Gemini 和 Claude4等业内顶尖模型,真正实现了技术的飞跃。Moondream3.0的设计支持32K 的上下文长度,非常适合实时交互和代理工作流。该模型搭载了创新的 SigLIP 视觉编码器,可以进行高分辨率图像处理,支持多裁剪通道拼接。通过使用自定义的高效 SuperBPE 分词器以及结合多头注意力机制,模型在长上下文建模方面的能力得到了显著提升。虽然训练数据量仅为约450亿个令牌,远低于其他头部模型的万亿级别,但 Moondream3.0依然能够实现卓越的性能。这款模型的一个主要亮点是其 全能 视觉技能,包括开放词汇的物体检测、点选、计数、字幕生成和光学字符识别(OCR)。其支持结构化输出,能够直接生成 JSON 数组,例如提取狗的 ID、毛色和背带颜色等信息。此外,Moondream3.0在用户界面理解、文档转录和物体定位方面的表现也令人印象深刻。早期基准测试结果显示,Moondream3.0在 COCO 物体检测中的得分达到了51.2,相较于前代提升了20.7;OCRBench 的得分从58.3上升至61.2,而 ScreenSpot UI F1@0.5的得分则为60.3。在实际应用中,该模型能够轻松识别复杂场景,例如识别穿紫色袜子的人、选中购物网页数量输入框、标记瓶子以及推荐适合意大利面的餐具。它的应用范围不仅限于安防监控和无人机巡检,还延伸到医学影像和企业级文档处理。Moondream3.0是一个开源模型,强调 无训练、无地面真相数据、无重型基础设施 的理念。开发者只需简单提示即可解锁其强大的视觉理解能力。根据社区反馈,该模型已在机器人语义行为、移动设备和 Raspberry Pi 上成功部署,适合边缘计算场景。划重点: Moondream3.0拥有9亿参数,激活仅2亿,展现高效视觉推理能力。 支持开放词汇物体检测和结构化输出,适用于多种场景。 开源设计,易于开发者使用,适合边缘计算应用。Moondream3.0高效混合专家SigLIPAI新词本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21624开源!腾讯混元图像3.0正式上线,支持中英文精准渲染、长文本生成
2025年9月28日 15:00
开源!腾讯混元图像3.0正式上线,支持中英文精准渲染、长文本生成AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20257腾讯宣布正式发布混元图像3.0,这是业界首个开源的商用级原生多模态生图模型。该模型拥有80亿参数,是目前效果最优、参数量最大的开源生图模型,能够与顶尖闭源模型相媲美。用户可以通过腾讯混元官网体验该模型,模型的权重和加速版本也已在 GitHub 和 Hugging Face 等开源社区发布,供广大开发者免费下载和使用。原生多模态技术架构混元图像3.0的亮点在于其 原生多模态 技术架构,允许用户通过一个模型同时处理文字、图片、视频和音频等多种输入和输出形式,而不再依赖多个模型的组合。这种创新使得模型具备了图像生成和语义理解的双重能力,类似于一个拥有思考能力的 智能画家。高级语义理解与自动生成该模型的语义理解能力显著提升,用户只需简单输入提示词,例如 生成一个月全食的四格科普漫画,模型便能自动生成完整的漫画,无需用户对每一格进行详细描述。混元图像3.0语义理解能力和美学质感也得到了大幅提升,可以实现对用户指令的精确生成,包括图片中的小字和长文本生成,都能较好地实现。官方案例:比如输入:你是一个小红书穿搭博主,请根据模特穿搭生成一张封面图片,要求:1.画面左侧是模特的OOTD全身图2.右侧是衣服的展示,分别是上衣深棕色夹克、下装黑色百褶短裙、棕色靴子、黑色包包 风格:实物摄影,要求真实,有氛围感,秋季美拉德色系穿搭。在这个提示词下,混元图像3.0可以准确地把左侧博主的穿搭分解成右侧单独的衣物。此外,混元图像3.0可以处理复杂的文字要求,生成详细的商品图、海报和插画,满足各类创作需求。提升创作效率混元图像3.0的发布不仅方便了插画师和设计师,还能帮助缺乏美术基础的内容创作者更轻松地制作出高质量的视觉内容。原本需要数小时的创作过程,现在可能仅需几分钟就能完成,大幅提升了创作效率。多任务训练与未来展望混元图像3.0基于50亿图文对和6TB 语料数据进行多模态混合训练,充分融合了多任务效果,从而实现超强的语义理解能力。腾讯团队透露,未来将陆续推出图生图、图像编辑、多轮交互等新功能,以进一步增强用户体验。用户可以通过访问腾讯混元官网(https://hunyuan.tencent.com/image)来体验这一全新的图像生成技术。此外,混元图像3.0的模型权重和加速版本已经在 Github、Hugging Face 等开源平台上发布,用户可以免费进行下载和使用。划重点: 混元图像3.0是首个开源的原生多模态生图模型,参数规模达80B。 该模型具备优异的语义理解能力,用户可以通过简短提示词生成复杂图像。 模型发布后将提升视觉创作者的效率,未来将推出更多功能以满足不同需求。混元图像3.0腾讯AI新词原生多模态本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21623腾讯重磅发布 混元图像 3.0,开创多模态图像生成新时代
2025年9月28日 15:00
腾讯重磅发布 混元图像 3.0,开创多模态图像生成新时代AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 202517近日,腾讯正式推出并开源了其全新的原生多模态图像生成模型 混元图像3.0(HunyuanImage3.0)。这一新模型的参数规模达到惊人的80B,标志着在图像生成领域的一次重大技术突破。值得一提的是,混元图像3.0不仅是首个开源的工业级多模态生图模型,其表现也与行业内顶尖的闭源模型相媲美。该模型的能力十分强大,它能够利用丰富的知识进行推理,解析复杂的千字级语义,并生成长篇文本。这对于需要创作高质量内容的设计师和开发者来说,无疑是个福音。腾讯表示,混元图像3.0的推出将进一步推动人工智能生成内容(AIGC)技术的发展。回顾混元系列的发展历程,混元图像3.0是继今年5月发布的2.0版本后的又一重要升级。值得注意的是,2.0版本已经实现了毫秒级的响应速度和超写实的图像质量,用户在输入文本时可以实时看到生成的图像。而3.0版本则在此基础上,进一步增强了模型的复杂性与表现力。除了图像生成,腾讯混元系列还先后推出了3D 生成模型(2.0和2.5版本)、定制化图像生成插件 InstantCharacter,以及多模态视频生成工具 HunyuanCustom,形成了一套完整的 AIGC 技术矩阵。这些工具的推出,不仅提升了创作者的工作效率,也为整个行业带来了更多的创新可能。腾讯的这一新模型的开源,意味着更多开发者和研究者能够利用这一强大的工具,推动多模态生成技术的进一步研究与应用。无疑,这将加速人工智能与各行各业的深度融合,为未来的创作带来无限可能。混元图像3.0腾讯AI新词AIGC本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21622小型VLM黑马逆袭:Moondream 3.0仅2B激活参数,碾压GPT-5和Claude 4
2025年9月28日 15:00
小型VLM黑马逆袭:Moondream 3.0仅2B激活参数,碾压GPT-5和Claude 4AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20258在视觉语言模型(VLM)领域,一场小而美的革命正在上演。最新发布的Moondream3.0(预览版)以其高效的混合专家(MoE)架构,凭借总9B参数、激活仅2B的轻量设计,实现了前沿级视觉推理能力。这一升级版模型不仅在复杂场景下表现出色,甚至在多项基准测试中超越了GPT-5、Gemini和Claude4等头部模型,引发AI社区热议。相较于今年1-2月推出的Moondream2版本(擅长验证码识别),3.0版扩展了应用边界,支持32K上下文长度,适用于实时交互和代理工作流。核心架构:高效MoE与SigLIP视觉编码器Moondream3.0采用创新的MoE架构,总参数9B,但激活参数仅2B,确保推理速度与前代相当,同时保持高效部署友好性。模型集成SigLIP视觉编码器,支持多裁剪通道拼接,实现令牌高效的高分辨率图像处理。隐藏维度为2048,使用自定义高效SuperBPE分词器,并引入多头注意力机制,结合位置和数据依赖的温度缩放,提升长上下文建模能力。这一设计源于Moondream2的上采样初始化,训练数据约450B令牌,远低于头部模型的万亿级规模,却实现了无妥协的性能。开发者可通过Hugging Face轻松下载,支持云API和本地运行,当前需NVIDIA GPU24GB+内存,量化版和Apple Silicon支持即将上线。能力升级:从简单识别到复杂推理Moondream3.0的最大亮点在于其全能视觉技能,包括开放词汇物体检测、点选、计数、字幕生成和OCR。模型支持结构化输出,如直接生成JSON数组(例如提取狗ID、毛色、背带颜色),并在UI理解、文档转录和物体定位上表现出色。早期基准显示,其在COCO物体检测分数达51.2(较前代提升20.7),OCRBench从58.3升至61.2,ScreenSpot UI F1@0.5达60.3。实际演示中,该模型轻松应对复杂场景:识别穿紫色袜子的人、选中购物网页数量输入框、标记瓶子、推荐最适合意大利面的餐具,甚至处理动态跟踪和问题解答。这些能力不仅适用于安防监控、无人机巡检,还扩展到医学影像和企业级文档处理,推理速度是大型模型的数倍,运行成本大幅降低。应用潜力:边缘设备与实时场景的理想选择作为开源模型,Moondream3.0强调无训练、无地面真相数据、无重型基础设施的理念,开发者只需简单提示即可解锁视觉理解。社区反馈显示,它已在机器人语义行为、移动设备和Raspberry Pi上部署,适用于边缘计算场景。相比国内头部开放权重VLM(如Qwen系列),其在视觉推理和结构化输出上更具优势,但详细跨国评测仍在进行中。未来,模型将继续迭代,优化推理代码并提升基准分数。视觉语言模型Moondream3.0混合专家架构AI社区热议本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21621腾讯发布并开源新一代生图模型HunyuanImage3.0
2025年9月28日 12:00
腾讯发布并开源新一代生图模型HunyuanImage3.0AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20253腾讯混元推出并开源其最新的多模态图像生成模型 混元图像3.0(HunyuanImage3.0)。此次发布标志着该模型的参数规模已达到80B,成为首个开源的工业级原生多模态生成模型。官方表示,该模型的生成效果可以与业内领先的闭源模型相媲美。混元图像3.0的主要亮点在于其能够处理复杂的语义内容,解析千字级别的文本并生成相应的图像。通过对知识的推理,该模型能够生成长文本,这在以往的图像生成模型中是一个不小的突破。这项技术的进步不仅为用户带来了更为丰富的创作体验,也为 AI 图像生成领域带来了新的可能性。此次更新是混元系列自今年5月推出2.0版本以来的重要升级。2.0版本已实现毫秒级的响应速度和超写实的图像质量,并支持实时生成图像,用户可以在输入文字的同时看到图像生成的过程。这种即时反馈的功能大大提升了用户的交互体验。腾讯混元在过去的时间里已陆续开源了多项 AI 生成技术,包括3D 生成模型、定制化图像生成插件 InstantCharacter,以及多模态视频生成工具 HunyuanCustom。这些开源项目构建了一个完善的 AI 生成内容(AIGC)技术生态,使得开发者和用户能够在多个领域中进行探索与应用。** 划重点:** 混元图像3.0是腾讯开源的首个工业级多模态生成模型,参数规模达到80B。 模型能够解析复杂的语义,并生成千字级长文本,效果可与顶尖闭源模型相媲美。 这是继2.0版本后的升级,支持毫秒级响应和实时生成图像的交互体验。混元图像3.0多模态图像生成模型腾讯混元AI新词本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21620Fedora 社区推出 AI 辅助贡献政策草案,征求意见中
2025年9月28日 12:00
Fedora 社区推出 AI 辅助贡献政策草案,征求意见中AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20253Fedora 项目社区近日宣布了一项重要举措,公开发布了《AI 辅助贡献政策》的草案,并启动了为期两周的社区反馈期。该政策旨在为贡献者和用户提供明确的指导,确保在利用人工智能(AI)技术的同时,依然维护开源社区的核心价值。接下来,社区理事会将对该政策进行审议并投票决定是否正式采纳。草案的核心部分分为几个重要领域。首先,在 总体理念 部分,政策明确将 AI 视为一种增强贡献者能力的工具,强调责任使用 AI 的重要性。贡献者需要遵循开源许可和尊重他人劳动的基本原则。其次,在 AI 辅助的项目贡献 方面,政策鼓励贡献者使用 AI 工具,但同时强调 人类监督 的必要性。贡献者需要对提交的内容负责,且不得提交未经验证或质量不佳的 AI 生成代码或文档。此外,在使用 AI 的情况下,贡献者还需在提交信息中明确标示使用了 AI 工具。第三部分针对 Fedora 项目的管理,政策规定不得使用 AI 工具对行为准则违规、资金申请等重要社区事务进行评估,而可用于垃圾邮件过滤和笔记记录等辅助性工作。此外,针对用户,所有 AI 功能必须为 可选启用,用户需明确同意后才能使用。Fedora 社区还鼓励开发者将 AI 相关工具和框架打包进 Fedora 平台,只要符合现有的打包和许可规范。同时,对于使用 Fedora 项目数据训练 AI 模型,必须遵循原始许可,包括署名和共享原则。划重点: AI 辅助贡献:允许使用 AI 生成内容,但需由贡献者审核并透明披露使用情况。 项目治理:禁止用 AI 进行社区事务的裁决,但可用于辅助性工作。 用户工具:面向用户的 AI 功能必须为可选启用,需获得用户同意。AI辅助贡献政策Fedora项目开源社区AI工具本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21619从粗糙几何到逼真3D视频:VideoFrom3D重塑图形设计新纪元
2025年9月28日 12:00
从粗糙几何到逼真3D视频:VideoFrom3D重塑图形设计新纪元AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 20257在AI驱动的创意浪潮中,一项突破性技术正悄然改变3D图形设计的格局。最新发布的VideoFrom3D框架,通过巧妙融合图像和视频扩散模型,从粗糙几何形状、相机路径以及参考图像出发,生成高度逼真且风格一致的3D场景视频。这一创新无需依赖昂贵的配对3D数据集,极大简化了设计流程,让设计师和开发者能够更高效地探索创意并快速产出高质量成果。框架核心:互补扩散模型的创新融合VideoFrom3D的核心在于其双模块架构:稀疏锚视图生成(SAG)模块和几何引导生成插帧(GGI)模块。SAG模块利用图像扩散模型,基于参考图像和粗糙几何,生成高质量的跨视图一致锚视图,确保视觉细节和风格的统一性。随后,GGI模块借助视频扩散模型,在锚视图基础上插值中间帧,通过流基相机控制和结构引导,实现流畅的运动和时间一致性。这一设计巧妙避开了传统视频扩散模型在复杂场景中的痛点如视觉质量、运动建模和时间一致性的联合挑战。研究显示,该框架在无需任何3D-自然图像配对数据的情况下,即可产出高保真视频,显著提升了生成效率。技术亮点:无需数据集的零门槛革命不同于以往依赖海量标注数据的3D生成方法,VideoFrom3D的零配对策略是其最大亮点。它仅需输入粗糙几何(如简单网格或点云)、相机轨迹和一张参考图像,即可自动合成完整视频序列。这不仅降低了数据获取门槛,还支持风格变体和多视图一致性,适用于从室内场景到户外景观的多样化应用。实验结果表明,在基准测试中,VideoFrom3D优于现有基线模型,尤其在复杂动态场景下表现出色。生成视频的保真度高达专业级水准,运动自然流畅,风格保持高度一致,为3D图形设计注入了即插即用的活力。应用前景:加速3D设计与内容创作这一框架的问世,将深刻影响3D图形设计、影视特效和虚拟现实领域。设计师可快速从草图迭代到成品视频,缩短生产周期;开发者则能轻松构建沉浸式场景,用于游戏原型或AR体验。更重要的是,它推动了AI在创意工具中的民主化,让中小团队也能触达高端生成能力。结语:AI时代的设计新范式VideoFrom3D不仅仅是一个技术框架,更是3D内容生成范式的转折点。它证明了扩散模型在3D领域的无限潜力,预示着未来更多从零到一的创新。项目地址:https://kimgeonung.github.io/VideoFrom3D/AI新词VideoFrom3D扩散模型3D场景视频本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21618日本游戏公司中超半数已采用 AI 技术,任天堂因版权顾虑保持谨慎
2025年9月28日 12:00
日本游戏公司中超半数已采用 AI 技术,任天堂因版权顾虑保持谨慎AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 202513近日,日本计算机娱乐供应商协会(CESA)发布了一项调查报告,显示51% 的日本游戏公司已经开始在不同程度上使用人工智能(AI)技术。这项调查在今年6月至7月间进行,参与的公司包括众多知名游戏厂商,如卡普空(Capcom)、Level-5、史克威尔艾尼克斯(Square Enix)和世嘉(Sega),涵盖了大型开发商和独立开发者。图源备注:图片由AI生成,图片授权服务商Midjourney根据调查结果,这些公司正利用 AI 生成视觉游戏资产、创作故事情节和文本内容,并辅助编程工作。此外,32% 的参与企业表示,他们在开发自研游戏引擎时也在借助 AI 的力量。尽管生成式 AI 在游戏行业的潜在应用引起了广泛讨论,但其实际渗透程度却让人感到意外,特别是在日本市场。其中,Level-5和卡普空等公司已公开承认采用 AI 技术。Level-5在多个环节中广泛应用 AI,包括图像超分辨率处理、角色设计和代码生成等。不过,业内对生成式 AI 在游戏开发中的具体应用存在很大分歧。许多业内人士一致认为,利用 AI 加速重复性的编码或动画制作是合理的,但如果试图用 AI 替代人类艺术家的角色,则引发了激烈的争议。正因如此,某些公司在采纳 AI 技术时显得更加谨慎。任天堂明确表示,因版权方面的顾虑,目前将避免使用生成式 AI。对于这家一直以法律手段捍卫知识产权的企业来说,这一选择反映了其一贯的立场。同时,其他主要厂商也呼吁在采用 AI 技术时要负责任,保护游戏开发中的人文创造力。拉瑞安工作室(Larian Studios)的首席执行官斯温温克(Swen Vincke)对此发表了看法。他在去年接受采访时指出,AI 是一个提升效率的工具,团队近期新招聘了15名概念美术师,以解决产能瓶颈,而非依赖 AI 解决方案。划重点:51% 的日本游戏公司已开始使用 AI 技术,应用领域包括视觉资产生成和故事创作。 部分公司如任天堂因版权顾虑,选择不使用生成式 AI,显示出行业对 AI 技术应用的分歧。 拉瑞安工作室 CEO 表示,AI 应作为工具提升效率,而非替代创作过程中的人类艺术家。AI技术游戏公司人工智能Midjourney本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21617开源 AI 客户端 Cherry Studio 升级:v1.6.0 正式发布
2025年9月28日 12:00
开源 AI 客户端 Cherry Studio 升级:v1.6.0 正式发布AIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 202510近日,开源 AI 桌面应用 Cherry Studio 发布了其最新版本 v1.6.0。这款支持 Windows、macOS 和 Linux 系统的跨平台应用在新版本中进行了重大更新,带来了更强的性能和更多实用功能,极大地提升了用户的操作体验。在 Cherry Studio v1.6.0中,开发团队接入了全新的 AI SDK,并对底层框架进行了重构。这一变化使得应用的响应速度更快,操作体验更加流畅,用户在使用过程中将感受到明显的提升。此外,该版本还新增了大量实用功能和重磅集成,让 Cherry Studio 成为一个更为强大的生产力中心。新版本引入了多个重要功能。其中,Perplexity SDK 和 Aionly 提供商的支持为用户带来了更多选择,同时也为 Anthropic 提供了便捷的 OAuth 登录设置。为了进一步增强本地识别能力,Cherry Studio 集成了 PaddleOCR 作为新的本地识别引擎。此外,该版本还新增了内置 API 服务器,为高级用户和开发者提供了极大的集成与自动化可能性,帮助他们更方便地进行应用开发。在编辑和文件处理方面,Cherry Studio 也做出了显著升级。富文本编辑器现在支持生成和导航目录,用户可以自由调整字体大小,长文处理能力得到了提升。同时,知识库功能经过重构,支持文件和文件夹的批量上传,而聊天中收到的文本附件则可以直接在应用内预览,方便快捷。在稳定性与修复方面,本次更新解决了上百个已知问题,进行了全面的优化。这些修复不仅提升了应用的可靠性,还优化了多平台的兼容性,确保用户在不同操作系统上都能获得一致的体验。此外,Cherry Studio 还引入了 Biome 和 Oxlint 等新一代前端工具链,大大提升了开发效率和代码质量。这一系列的改进,为用户提供了更强大的功能和更流畅的体验,让 Cherry Studio 成为开发者和普通用户的理想选择。github:https://github.com/CherryHQ/cherry-studio/releases划重点: 版本 v1.6.0进行了重构,显著提升性能与操作体验。 新增 Perplexity SDK 和 Aionly 支持,增强了功能整合性。 修复了上百个问题,提升了跨平台的稳定性与可靠性。CherryStudioAISDKPerplexitySDKAion本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21616YouTube Music测试AI音乐主播功能:提供曲目故事和粉丝趣闻,正面迎战Spotify AI DJ
2025年9月28日 12:00
YouTube Music测试AI音乐主播功能:提供曲目故事和粉丝趣闻,正面迎战Spotify AI DJAIbase基地发布于AI新闻资讯·1分钟阅读·Sep 28, 202513YouTube Music周五宣布正在测试AI音乐主播功能,该功能能够为用户正在收听的音乐提供相关故事、粉丝趣闻和评论解说。这一举措是对Spotify两年前推出AI DJ功能的直接回应。Spotify的AI DJ不仅提供精选音乐,还会对用户喜爱的曲目和艺术家进行AI驱动的语音评论。YouTube Music的新功能基于其在对话式AI方面的持续实验。今年7月,该服务推出了AI对话电台功能,允许用户通过描述想要听到的内容来创建自定义电台。YouTube Music的AI主播功能目前通过YouTube Labs进行测试,这是该平台新推出的AI实验中心。该公司在博客文章中表示,YouTube Labs是"一项专注于探索AI在YouTube上潜力的新举措"。YouTube Labs与Google Labs类似,后者是谷歌的实验部门,让用户可以测试早期阶段的AI产品并提供反馈。YouTube Labs向所有YouTube用户开放,这意味着用户无需Premium会员资格即可注册。不过,公司指出只有有限数量的美国用户能够获得这一实验项目的访问权限。YouTube Labs最近在YouTube平台上实施了多项AI功能。本月早些时候,该公司为创作者发布了一系列AI功能,包括用于Shorts创作的生成式AI工具。几个月前,YouTube推出了类似于谷歌AI概览的AI驱动搜索结果轮播,并扩大了对话式AI工具的使用范围,帮助用户找到更多信息、获得内容推荐和视频摘要。虽然YouTube正在拥抱AI功能,但也在打击AI垃圾内容。该平台最近更新了政策,限制创作者从"非真实"内容中获得收入,包括批量制作的视频和其他类型的重复性内容。从竞争格局来看,YouTube Music这一举措表明音乐流媒体平台正在将AI个性化体验视为差异化竞争的关键要素。通过提供智能化的音乐解说和背景故事,这些平台试图创造更具沉浸感的听觉体验,超越简单的音乐播放功能。YouTube Labs的开放性策略也值得关注,通过向所有用户开放而非仅限付费用户,YouTube可能希望获得更广泛的用户反馈来完善其AI功能。不过,限制美国用户参与测试的做法可能反映出该公司对功能稳定性和监管合规的谨慎态度。AI音乐主播YouTubeMusicAIDJAI对话电台本文来自AIbase日报扫码查看欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。由AIbase 日报组创作© 版权所有 AIbase基地 2024, 点击查看来源出处 -
信息源:AIBase 来源:https://www.aibase.com/zh/news/21615