生成式AI技术的爆发,正推动云服务厂商加快多模型平台的布局。亚马逊云科技(AWS)旗下的Bedrock是一个全托管生成式AI服务平台,自2023年上线以来,已整合Anthropic Claude、Meta Llama 2、Amazon Titan等多款主流模型,成为企业搭建AI应用的重要选项。4月28日,AWS CEO安迪·贾西在年度开发者大会上宣布,未来数周内Bedrock将通过全新的有状态运行时环境,向全球用户开放OpenAI系列模型,包括GPT-4、GPT-3.5-turbo等核心产品,这标志着AWS的多模型战略进入了新阶段。
Bedrock这次能集成OpenAI模型,核心在于新推出的有状态运行时环境。这个环境让开发者调用模型时能保留对话上下文,不用每次请求都重新传输历史对话数据——这不仅减少了API调用的带宽成本,还能加快应用响应速度。比如企业搭建智能客服系统时,用户的连续提问能通过这个环境无缝衔接,避免重复输入背景信息。此外,用户不用离开Bedrock平台或迁移现有数据,就能直接通过Bedrock的统一API调用OpenAI模型,简化了开发流程。以GPT-4为例,它支持8k或32k tokens的上下文窗口,能处理长文档分析、复杂逻辑推理等任务,Bedrock用户可根据业务需求灵活选择模型版本。
Bedrock的集成架构采用模块化设计,OpenAI模型通过API网关接入Bedrock的模型池,用户能通过Bedrock控制台或SDK快速配置模型参数,比如温度、最大输出长度等。有状态运行时则通过会话管理机制存储对话历史,每次请求只需传输新增内容,大幅提升了效率。AWS官方数据显示,使用有状态运行时能减少约30%的API调用数据量,部署成本也降低20%。此外,Bedrock提供的模型对比工具可帮助用户测试不同模型在特定任务上的性能,比如在文本生成任务中,GPT-4的准确率比部分开源模型高15%左右(基于AWS内部测试数据)。
亚马逊此举旨在强化Bedrock在生成式AI云服务领域的竞争力。IDC发布的《2024-2027全球生成式AI云服务市场预测报告》显示,2023年这个市场规模约120亿美元,到2027年预计会达到1000亿美元,年复合增长率超过70%。多模型平台已成为云厂商争夺市场的核心赛道,Bedrock通过集成OpenAI模型,能满足客户对不同模型的多样化需求:金融机构可能用GPT-4生成风险报告,电商企业则可能选Anthropic Claude处理客户评价分析。此外,Bedrock的全托管服务降低了企业的技术门槛,不用搭建复杂的模型训练和部署基础设施,就能快速上线AI应用。
行业动态方面,AWS近期还推出了Bedrock的自定义模型训练功能,允许客户用自有数据微调Bedrock上的模型,进一步提升模型的业务适配性。竞争对手方面,作为OpenAI的战略投资者,微软Azure早就在Azure OpenAI服务中集成了GPT系列模型,还推出了Copilot Studio等工具;Google Cloud的Vertex AI平台则整合了Gemini、PaLM 2等自研模型,2024年3月又宣布支持Anthropic Claude 3,形成了能与Bedrock直接抗衡的多模型生态。随着各大云厂商持续完善模型矩阵,生成式AI云服务市场的竞争会越来越激烈,企业用户能有更多选择,但也得根据自身业务场景,挑出最适合的平台和模型。






快报