OpenAI推出新旗舰模型GPT-4o
北京时间周二凌晨1点,OpenAI举办了一场春季发布会,向公众展示了一系列与ChatGPT相关的创新。发布会核心内容包括发布新旗舰模型“GPT-4o”以及在ChatGPT中增加更多免费功能。
GPT-4o作为本次发布会的重头戏,标志着OpenAI在人机交互领域迈出了重要一步。这款模型能够实时处理音频、视觉和文本信息,显著提升了ChatGPT的语言处理能力,支持50种不同语言,并在处理速度和质量上有所突破。与旧模型相比,GPT-4o在理解图像和音频方面更为出色,能在极短时间内对音频输入做出响应,接近人类对话的自然节奏。演示中,它能识别用户的紧张情绪并给予指导,还能根据需求调整语调,展现出高度的情境适应性。
性能方面,GPT-4o不仅在文本、推理和编码等基础能力上保持高水平,其多语言、音频和视觉处理能力更是达到了前所未有的标准。这种跨模态的进步被视作AI领域的一大变革,使得AI能够更全面地理解和响应用户的个人情境和需求。OpenAI推出新旗舰模型GPT-4o。
更令人兴奋的是,GPT-4o的手机版通过语音和视觉识别技术,不仅能理解用户的言语和身体状态,还能根据所处环境作出互动,比如解答数学问题后参与生活话题的讨论,实现了真正的个性化交流体验。