fatiery 发表于 2024-12-12 12:16:19

Groq API 免费使用教程

本帖最后由 fatiery 于 2024-12-12 12:27 编辑

下面的内容是转载的

## 第一步:获取 API
1. 访问 https://console.groq.com/
2. 完成注册并申请 API
3. 保存获得的 API 密钥

## 第二步:配置 NextChat
1. 打开 https://app.nextchat.dev/
2. 在左侧设置中填入:
   - 接口地址:`https://api.groq.com/openai/`
   - API Key:填入之前获取的密钥
   - 自定义模型:`llama-3.3-70b-versatile`

## 主要优势
- 响应速度:200 Token/秒
- 性能表现:接近 GPT-4.0 水平
- 完全免费使用

## 使用限制
- 每分钟限额:6000 Token
- 每日 API 调用:14000 次
- 足够普通用户日常使用

根据实际操作,NextChat这样还不行,下面是我自己的操作步骤详细化,仅供参考:
1. 点击左下角设置
2. 勾选自定义接口
3. 接口地址输入:https://api.groq.com/openai/
4. API Key输入:gsk_XXXX(你的API密钥)
5. 自定义模型输入:llama-3.3-70b-versatile
6. 模型 下拉 选择我们输入的 llama-3.3-70b-versatile

这样就可以对话使用了,其实不止NextChat,其实有其他类似NextChat的程序,搭建网站供他人使用的,可以在Github找下。

当然这对直接能用ChatGPT的人来说,没啥用,重点就是它的免费API调用次数,对我们编程的人而言,结合自动化的程序,比如翻译、总结、改写等等,绝对量大管饱。

官方教程
export GROQ_API_KEY=<your-api-key-here>pip install groqimport os

from groq import Groq

client = Groq(
    api_key=os.environ.get("GROQ_API_KEY"),
)

chat_completion = client.chat.completions.create(
    messages=[
      {
            "role": "user",
            "content": "Explain the importance of fast language models",
      }
    ],
    model="llama3-8b-8192",
)

print(chat_completion.choices.message.content)

实际使用:
记得把模型 llama3-8b-8192 换为 llama-3.3-70b-versatile

下面是我用过API提问,“llama-3.3-70b-versatile与llama3-8b-8192的区别,用中文回复” 的结果
LLaMA 是一种大语言模型,由 Meta AI 开发。LLaMA-3.3-70b-versatile 和 LLaMA-3-8b-8192 是 LLaMA 的两个不同版本,它们之间的区别主要体现在以下几方面:

1. **模型大小**:LLaMA-3.3-70b-versatile 的参数量大约为 70 亿,而 LLaMA-3-8b-8192 的参数量大约为 8 亿。这意味着 LLaMA-3.3-70b-versatile 的模型规模比 LLaMA-3-8b-8192 大得多,通常来说,更大的模型对应着更强的表达能力和更好的性能。
2. **计算资源**:由于 LLaMA-3-8b-8192 的模型大小相对较小,所需的计算资源也相对较少。这使得它可以在较低端的硬件上运行,包括一些个人电脑或较早的 GPU,而 LLaMA-3.3-70b-versatile 则需要更强大的计算资源来处理。
3. **性能差异**:一般来说,参数量更大的模型如 LLaMA-3.3-70b-versatile 在语言理解和生成任务上会表现更好,因为它能够捕捉到语言中更复杂和细致的模式。然而,性能的差异也取决于具体的应用场景和任务。
4. **训练数据**:两个模型可能使用的训练数据集不同,尽管它们都是基于大规模语料库训练的,但数据的范围、深度和覆盖面可能有所不同,这也会影响它们的性能和适用范围。

总而言之,LLaMA-3.3-70b-versatile 和 LLaMA-3-8b-8192 之间的选择,主要取决于你的应用场景、可用的计算资源以及对模型性能的需求。如果需要更强大的语言处理能力且计算资源充足,较大的模型可能是一个更好的选择;如果计算资源有限或需要一个更轻量级的解决方案,较小的模型可能更合适。


因为比较急,即使简单的贴子也难免有错误的地方,大家请多担待,姑妄言之姑看之。

keepmoving 发表于 2024-12-12 18:29:39

谢谢版主分享
页: [1]
查看完整版本: Groq API 免费使用教程