|
|
OpenAI向部分ChatGPT Plus用户推出高级语音模式 |
|
·新的音频功能允许用户与ChatGPT对话并立即接收实时响应,也可以在ChatGPT说话时打断。视频和屏幕共享等更高级功能将在晚些时候推出。
7月31日,OpenAI宣布向部分ChatGPT Plus用户推出高级语音模式,并计划于秋季向所有ChatGPT Plus用户开放。
OpenAI正在推动新一代人工智能语音助手的发展。新的音频功能将允许用户与ChatGPT对话并立即接收实时响应,也可以在ChatGPT说话时打断它。语音模式可分辨不同的语音语调所传达的信息。它的声音听起来更自然,并利用声音传达各种不同情绪。
新的语音模式由OpenAI的GPT-4o模型提供支持,该模型结合了语音、文本和视觉功能。为了收集反馈,OpenAI最初向ChatGPT Plus的“一小部分用户”推出语音高级功能,但OpenAI表示,将在今年秋天向所有ChatGPT Plus用户开放。
OpenAI将语音通话体验的推出时间从6月下旬推迟到7月,称需要时间达到发布标准。OpenAI表示已与100多个外部红队测试了GPT-4o的语音功能,涉及45种语言。该公司表示已经建立了几项安全机制,例如为了保护隐私,防止该模型被用来制作深度造假语音,它与配音演员合作创建了四种预设声音,GPT-4o不会模仿或生成其他人的声音。
此前,OpenAI首次推出GPT-4o时,因使用名为“Sky”的声音而遭到强烈反对,这听起来很像女演员斯嘉丽·约翰逊(Scarlett Johansson)的声音。斯嘉丽·约翰逊曾发表声明,称OpenAI曾联系过她,希望允许模型使用她的声音,但她拒绝了。OpenAI否认这是约翰逊的声音,但已暂停使用Sky。
OpenAI也表示,已采用过滤器识别和阻止生成音乐或其他受版权保护的音频的请求,并将文本模型中使用的相同安全机制应用于GPT-4o,防止其违反法律,产生有害内容。“我们设置了护栏来阻止对暴力或受版权保护内容的请求。”此外,视频和屏幕共享等更高级功能将在晚些时候推出。
特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。