OpenAI呼吁英国制定前瞻性版权政策以推动人工智能发展,强调数据和文本挖掘例外的重要性,以促进创新和投资。
2025-04-03 12:27
OpenAI 通过GPT-4o技术实现了显著的收入增长,仅3个月就从3.33亿美元增至4.15亿美元。其ChatGPT用户数突破2000万,付费用户数量也飙升至2000万人。此外,GPT-4o还被用于制作治愈系新闻插画,如将日常视频转化为吉卜力风格,引发网友共鸣。这种技术的应用不仅丰富了内容形式,也为AI在媒体和娱乐领域的应用开辟了新途径。
2025-04-03 10:27
OpenAI 成立了新委员会,旨在助力构建最强大的非营利组织。该委员会将通过收集来自健康、科学、教育和公共服务领域的领导者和社区反馈,帮助慈善部门理解面临的紧迫问题,并在四月公布成员名单。董事会将考虑这些见解,以推进 OpenAI 的非营利工作,并计划在2025年底前取得实质性进展。
2025-04-03 10:27
OpenAI推出名为PaperBench的AI代理评测基准,旨在评估AI代理复制先进AI研究的能力。该测试要求AI代理从头开始复制20篇2024年国际机器学习会议(ICML)中的重点和口头论文,整个过程涉及理解论文贡献、开发代码库以及成功执行实验。为了实现大规模评估,研究团队还开发了一种基于大型语言模型(LLM)的自动评分系统。在对多个前沿AI模型进行评测后,研究发现表现最佳的代理是Claude3.5Sonnet(新版本),其平均复制得分为21.0%。为了推动后续研究,OpenAI团队决定将其开发的代码开源。
2025-04-03 10:27
Tinder与OpenAI合作推出AI语音调情游戏"Game Game",旨在通过角色扮演和互动提升用户参与度。尽管该游戏设计意图为幽默、低压力的调情体验,但技术缺陷如蓝牙扬声器下的重复回声,可能影响用户体验。
2025-04-03 10:26
谷歌DeepMind预测到2030年AGI可能超越人类,发布安全策略。报告指出,目前机器学习方法尤其是神经网络是实现AGI的主要途径。DeepMind首席执行官德米斯·哈萨比斯预计早期AGI系统可能在5到10年内问世,但现有模型缺乏对世界的深刻理解。报告强调防止滥用和目标错位的重要性,推出多层次安全策略,并分析基础设施限制认为继续扩展具经济可行性。
2025-04-03 10:26
设计师面临挑战:即梦3.0内测版突破性地提升了图像生成质量,通过简单提示词即可生成细节丰富、品质卓越的2K商业海报。新模型在场景布局、色彩搭配及细节刻画上均有显著提升,连细微的文字拼写和标志设计也能做到近乎完美。这一进步可能源于算法的全面升级,包括训练数据量、生成网络结构和优化策略的改进。此外,即梦3.0的生成速度极快,从输入到输出仅需数秒,为快速迭代创意提供了有力支持。
2025-04-03 10:26
字节跳动在人工智能开源社区Hugging Face上发布了其最新文本转语音(TTS)模型MegaTTS3,该模型以其轻量化设计和多语言支持的突破性表现迅速引起了全球AI研究者和开发者的关注。MegaTTS3 主干模型仅包含0.45亿个参数,使其成为市场上最轻的TTS模型之一,降低了计算资源需求,并适合部署于资源受限的设备上。该模型支持中文和英文语音生成,具备独特的口音强度控制功能,能够自然流畅地处理双语文本。此外,它还引入了口音强度控制功能,用户可以通过调整参数生成带有不同程度口音的语音,为个性化语音应用提供了更多可能性。MegaTTS3 的代码和预训练模型已通过GitHub和Hugging Face平台免费开放,用户可直接下载并用于研究或开发。技术社区中,开发者们对MegaTTS3的轻量化和实用性表达了高度认可。未来,字节跳动计划为MegaTTS3添加发音和时长控制功能,进一步提升其灵活性和应用场景。MegaTTS3的发布为多个领域带来了新的可能性。在学术研究中,它可用于测试语音合成技术的极限;在内容创作中,可为视频配音或播客生成低成本、高质量的旁白;在教育领域,其双语支持和语音克隆功能可助力开发更具互动性的学习工具。业内人士认为,MegaTTS3的开源性质将加速中小型企业和个人开发者在语音技术上的创新步伐。随着MegaTTS3在Hugging Face上的发布,字节跳动再次证明了其在AI技术研发和开源共享方面的领先地位。
2025-04-03 08:26
武汉市在体育中考中首次引入AI智能系统,覆盖近10万名学生。该系统采用人脸识别和无线传感技术,实现了零人工干预的考试过程。所有数据实时采集并加密存档,确保成绩公开透明和准确性。此次改革得到了考务技术顾问的积极评价,认为AI技术的应用让考试过程更具公信力,避免了以往可能存在的人为误差。
2025-04-02 22:25
这篇文章是关于新加坡国立大学Show Lab的一组研究人员提出的一个名为“Impossible Videos”的概念,以及他们为此构建的一个基准测试数据集IPV-BENCH。这个数据集旨在评估AI视频生成模型在处理反现实(anti-real)场景方面的能力。 研究团队提出了一个新的挑战,即通过生成和理解反事实视频来测试现有模型对现实世界规律的理解。他们构建了一个包含14个类别的基准数据集,涵盖了物理、生物、地理和社会四个领域,共260个文本提示和902个高质量AI生成的“不可能”视频。 研究结果揭示了现有模型在生成符合“不可能”概念的视频方面的困难,特别是在视频质量和遵循文本提示方面。此外,他们还发现影响生成能力的两点限制:一是“不可能”的文本提示作为分布外数据容易引起artifacts,二是过度强调对事实规律的遵循限制了模型的创造力。 在视频理解方面,研究团队使用902个高质量视频以及对应的人工标注,构建了三个不同任务评测主流多模态理解模型对超现实现象的理解能力。实验结果表明,现有模型在区分选项中的不可能事件和其他事件方面展示了较大的潜力,但在没有选项线索的开放描述任务中仍存在困难。 总结与未来方向部分,文章指出首个Impossible Videos Benchmark提供了标准化评测体系,新挑战是从反事实的视角评测模型对现实世界规律的理解,以及面向未来,当前多模态模型在“不可能”事件理解、时域推理、反事实生成等方面仍存在巨大挑战。基于Impossible Videos的数据增强、模型微调等是帮助模型掌握世界规律的新视角。
2025-04-02 18:25