Groq API Pricing 2026

Groq provides ultra-fast LLM inference using custom LPU hardware. Fastest tokens-per-second in the industry.

Showing 11 models from Groq. Prices are per 1 million tokens. Data sourced from official pricing pages via LiteLLM.

Models

11

Cheapest Input

$0.05

/1M tokens

Cheapest Output

$0.08

/1M tokens

Max Context

262K

tokens

11 models
Features
gemma-7b-it$0.050$0.0808.2K8.2K
llama-3.1-8b-instant$0.050$0.080128K8.2K
openai/gpt-oss-20b$0.075$0.300131.1K32.8K
openai/gpt-oss-safeguard-20b$0.075$0.300131.1K65.5K
meta-llama/llama-4-scout-17b-16e-instruct$0.110$0.340131.1K8.2K
openai/gpt-oss-120b$0.150$0.600131.1K32.8K
meta-llama/llama-4-maverick-17b-128e-instruct$0.200$0.600131.1K8.2K
meta-llama/llama-guard-4-12b$0.200$0.2008.2K8.2K
qwen/qwen3-32b$0.290$0.590131K131K
llama-3.3-70b-versatile$0.590$0.790128K32.8K
moonshotai/kimi-k2-instruct-0905$1.00$3.00262.1K16.4K

อัปเดตราคา LLM รายสัปดาห์

รับแจ้งเตือนเมื่อราคา AI model เปลี่ยน ฟรี ไม่สแปม ยกเลิกได้ตลอด