AI-NEWS · 2025年 11月 26日

AWS Bedrock赋能GPT部署

AWS Bedrock 支持 GPT-OSS 模型部署,实现无缝 API 迁移

核心功能概述

亚马逊云科技(AWS)近期在 Amazon Bedrock 平台上推出了自定义模型导入新功能,使用户能够轻松部署开源的 GPT-OSS 模型。该功能支持**20亿参数(GPT-OSS-2B)120亿参数(GPT-OSS-12B)**两种模型变体,帮助企业将现有应用迁移至 AWS 平台,同时保持 API 兼容性。

部署流程简化

用户只需完成以下四个步骤:

  1. 下载并准备模型文件
  2. 上传文件至 Amazon S3
  3. 通过 Amazon Bedrock 控制台导入模型
  4. 使用 OpenAI 兼容 API 测试模型

AWS 将自动处理 GPU 配置、推理服务器设置和按需自动扩缩容,让用户专注于应用开发。

模型特性对比

模型类型 适用场景 架构特点
GPT-OSS-20B 对速度和效率要求高的场景 混合专家架构,按需激活最相关组件
GPT-OSS-120B 复杂推理任务 混合专家架构,确保高效性能

迁移优势

  • API 兼容性:保持与 OpenAI chat completion API 格式的兼容性
  • 代码改动最小化:仅需更改调用方法,消息结构保持不变
  • 基础设施自动化:AWS 自动处理底层资源配置

最佳实践建议

AWS 推荐用户在部署过程中遵循以下最佳实践:

  • 文件验证
  • 安全设置配置
  • 确保 AWS 账户具有适当权限
  • 在目标区域创建 S3 存储桶

服务扩展计划

AWS 将继续扩大 Bedrock 服务的区域支持范围,以满足更多用户需求。

关键要点总结

  • AWS Bedrock 自定义模型导入功能简化了 GPT-OSS 模型部署
  • 用户只需上传模型文件,AWS 自动处理基础设施配置和扩缩容
  • API 兼容性确保现有应用能够无缝迁移至 AWS 平台

火龙果频道