AI-NEWS · 2024年 11月 14日

谷歌Gemini API兼容OpenAI,助力开发者轻松切换

谷歌发布新的Gemini API端点

谷歌最近宣布推出一个新的Gemini API端点,旨在让已采用OpenAI解决方案的开发者更容易切换到Gemini。这个新端点目前处于测试阶段,并且仅支持一部分OpenAI功能。

主要特点:

  1. 兼容性和替换性

    • 新的Gemini端点可以在使用直接REST调用或官方OpenAI SDK时替代OpenAI的端点。
    • 开发者只需修改初始化代码中的API密钥和基础URL即可将程序从OpenAI转换到Google的模型。
    from openai import OpenAI
    
    client = OpenAI(
        api_key="geminiapikey",
        base_url=""
    )
    
  2. 聊天完成API

    • 可以使用Gemini的chat completion API生成文本,指定使用的Gemini模型。
    response = client.chat.completions.create(
        model="gemini-1.5-flash",
        n=1,
        messages=[
            {"role": "system", "content": "You are a helpful assistant."},
            {"role": "user", "content": "Explain how AI works"}
        ]
    )
    print(response.choices[0].message)
    
  3. 嵌入API

    • 支持OpenAI的embedding API,用于测量文本字符串之间的相关性。
    • 该功能通过将文本映射到浮点数向量来实现。
    response = client.embeddings.create(
        input="Your text string here",
        model="text-embedding-004"
    )
    print(response.data[0].embedding)
    

功能限制:

  1. 仅支持部分OpenAI功能

    • 当前只有chat completion API和embedding API可以通过新的OpenAI端点使用Gemini模型。
    • 图像上传和结构化输出等功能的支持仍然有限。
  2. 未来计划

    • 谷歌表示,他们计划增加更多的OpenAI功能,以便开发者更容易地将Gemini作为替代方案。但具体时间表尚未明确。

开发者社区反馈:

在Reddit上的讨论中,评论员们对谷歌的这一举措给予了积极评价,认为这为OpenAI API用户提供了摆脱锁定的机会。不过,要在不同模型提供商之间轻松切换的标准API还需要更多时间和努力。

vLLM项目

作为更通用的方法,vLLM项目旨在支持各种生成和嵌入模型,并提供与OpenAI兼容的服务器。通过vLLM,开发者可以使用Mistral、Llama、Llava等多个当前可用的主要模型。

关键点总结:

  1. 谷歌推出一个新的Gemini API端点,使开发人员更容易切换到Gemini。
  2. 新端点支持OpenAI的chat completion和embedding APIs,但功能尚不完全。
  3. vLLM项目提供对多种模型的支持,增强API灵活性。

以上是材料的主要内容归纳及分析。希望这些信息能为决策提供帮助。

Source:https://www.aibase.com/news/13194