谷歌发布新的Gemini API端点
谷歌最近宣布推出一个新的Gemini API端点,旨在让已采用OpenAI解决方案的开发者更容易切换到Gemini。这个新端点目前处于测试阶段,并且仅支持一部分OpenAI功能。
主要特点:
-
兼容性和替换性:
- 新的Gemini端点可以在使用直接REST调用或官方OpenAI SDK时替代OpenAI的端点。
- 开发者只需修改初始化代码中的API密钥和基础URL即可将程序从OpenAI转换到Google的模型。
from openai import OpenAI client = OpenAI( api_key="geminiapikey", base_url="" )
-
聊天完成API:
- 可以使用Gemini的
chat completion API
生成文本,指定使用的Gemini模型。
response = client.chat.completions.create( model="gemini-1.5-flash", n=1, messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Explain how AI works"} ] ) print(response.choices[0].message)
- 可以使用Gemini的
-
嵌入API:
- 支持OpenAI的embedding API,用于测量文本字符串之间的相关性。
- 该功能通过将文本映射到浮点数向量来实现。
response = client.embeddings.create( input="Your text string here", model="text-embedding-004" ) print(response.data[0].embedding)
功能限制:
-
仅支持部分OpenAI功能:
- 当前只有chat completion API和embedding API可以通过新的OpenAI端点使用Gemini模型。
- 图像上传和结构化输出等功能的支持仍然有限。
-
未来计划:
- 谷歌表示,他们计划增加更多的OpenAI功能,以便开发者更容易地将Gemini作为替代方案。但具体时间表尚未明确。
开发者社区反馈:
在Reddit上的讨论中,评论员们对谷歌的这一举措给予了积极评价,认为这为OpenAI API用户提供了摆脱锁定的机会。不过,要在不同模型提供商之间轻松切换的标准API还需要更多时间和努力。
vLLM项目
作为更通用的方法,vLLM项目旨在支持各种生成和嵌入模型,并提供与OpenAI兼容的服务器。通过vLLM,开发者可以使用Mistral、Llama、Llava等多个当前可用的主要模型。
关键点总结:
- 谷歌推出一个新的Gemini API端点,使开发人员更容易切换到Gemini。
- 新端点支持OpenAI的chat completion和embedding APIs,但功能尚不完全。
- vLLM项目提供对多种模型的支持,增强API灵活性。
以上是材料的主要内容归纳及分析。希望这些信息能为决策提供帮助。