Czym jest AWS Bedrock
Amazon Bedrock to serwis AWS, który daje dostęp do ponad 100 modeli AI od różnych dostawców — przez jedno API, na infrastrukturze AWS. Nie musisz zakładać osobnych kont u Anthropic, Meta czy Cohere. Płacisz za użycie (per token), dane zostają w twoim koncie AWS i wybranym regionie, a AWS gwarantuje, że nie używa ich do trenowania modeli.
To ważne szczególnie pod kątem RODO — dane przetwarzane w regionie EU (np. eu-west-1 Irlandia) nie opuszczają Europy.
💡 Intum i AWS Bedrock
W Intum mamy gotowy konektor do AWS Bedrock — wystarczy go skonfigurować w panelu konektorów (klucz AWS Access Key + Secret Key) i od razu można korzystać z modeli Bedrock w Noe AI. Nie trzeba nic programować ani instalować — konektor obsługuje zarówno chat jak i embeddingi.
Konektor wspiera:
- Chat — rozmowy z modelami Claude, Nova, Llama i innymi
- Embeddingi — generowanie wektorów przez Cohere Embed v4 (domyślnie) lub Embed Multilingual v3. Dane nie wychodzą poza AWS, co jest istotne pod kątem RODO
Model embeddingu można wybrać w konfiguracji konektora (pole “Model embeddingu”).
Modele tekstowe (chat / reasoning)
Bedrock oferuje modele od kilkunastu dostawców. Poniżej najważniejsze z podziałem na kategorie.
Anthropic Claude
Najnowsze modele Claude dostępne w Bedrock (z prefiksem eu. dla regionu EU):
| Model | Model ID | Uwagi |
|---|---|---|
| Claude Opus 4.6 | anthropic.claude-opus-4-6-v1 |
Najinteligentniejszy model Anthropic. Coding, agenci, złożone zadania |
| Claude Sonnet 4.6 | anthropic.claude-sonnet-4-6 |
Dobry balans jakości i szybkości |
| Claude Sonnet 4.5 | anthropic.claude-sonnet-4-5-20250929-v1:0 |
Poprzednia generacja, nadal solidny |
| Claude Opus 4.5 | anthropic.claude-opus-4-5-20251101-v1:0 |
Poprzednia generacja premium |
| Claude Haiku 4.5 | anthropic.claude-haiku-4-5-20251001-v1:0 |
Najszybszy i najtańszy. Dobry do prostych zadań |
Meta Llama
| Model | Model ID | Uwagi |
|---|---|---|
| Llama 4 Maverick 17B | meta.llama4-maverick-17b-instruct-v1:0 |
Najnowszy, multimodalny (tekst + obraz) |
| Llama 4 Scout 17B | meta.llama4-scout-17b-instruct-v1:0 |
Lżejszy wariant Llama 4 |
| Llama 3.3 70B | meta.llama3-3-70b-instruct-v1:0 |
Sprawdzony, dobra jakość |
| Llama 3.1 405B | meta.llama3-1-405b-instruct-v1:0 |
Największy open source model |
| Llama 3.1 8B | meta.llama3-1-8b-instruct-v1:0 |
Mały, szybki, tani |
Amazon Nova
| Model | Model ID | Uwagi |
|---|---|---|
| Nova Premier | amazon.nova-premier-v1:0 |
Najlepszy model Amazona. Multimodalny |
| Nova Pro | amazon.nova-pro-v1:0 |
Dobry stosunek jakość/cena |
| Nova Lite | amazon.nova-lite-v1:0 |
Szybki, tani. Obsługuje tekst, obraz, wideo |
| Nova 2 Lite | amazon.nova-2-lite-v1:0 |
Najnowsza generacja Nova |
Mistral AI
| Model | Model ID | Uwagi |
|---|---|---|
| Mistral Large 3 (675B) | mistral.mistral-large-3-675b-instruct |
Flagowy model Mistral. Multimodalny |
| Magistral Small | mistral.magistral-small-2509 |
Dobry do codziennych zadań |
| Ministral 14B | mistral.ministral-3-14b-instruct |
Średniej wielkości, multimodalny |
| Devstral 2 (123B) | mistral.devstral-2-123b |
Dedykowany do programowania |
DeepSeek
| Model | Model ID | Uwagi |
|---|---|---|
| DeepSeek V3.2 | deepseek.v3.2 |
Najnowszy, bardzo dobra jakość |
| DeepSeek R1 | deepseek.r1-v1:0 |
Model reasoning (chain-of-thought) |
| DeepSeek V3.1 | deepseek.v3-v1:0 |
Poprzednia wersja |
Inne
| Model | Dostawca | Uwagi |
|---|---|---|
| Qwen3 Coder Next | Alibaba/Qwen | Dedykowany do kodu |
| Qwen3 32B | Alibaba/Qwen | Dobry model ogólny |
| GLM 4.7 | Z.AI | Chiński model, dobra wielojęzyczność |
| Kimi K2.5 | Moonshot AI | Thinking model z obsługą obrazów |
| MiniMax M2.1 | MiniMax | Dobry stosunek jakość/cena |
| Palmyra X5 | Writer | Zoptymalizowany pod enterprise |
| Gemma 3 27B | Open source od Google | |
| GPT-OSS 120B | OpenAI | Open source modele OpenAI |
| Nemotron Nano 30B | NVIDIA | Zoptymalizowany pod edge/inference |
| Jamba 1.5 Large | AI21 Labs | Architektura SSM+Transformer |
Modele embeddingowe
Szczegółowe porównanie embeddingów (z oceną jakości na polskim) jest w powiązanym artykule Top 10 modeli embeddingowych. Tu krótkie podsumowanie co jest dostępne w Bedrock:
| Model | Model ID | Wymiary | Input | Uwagi |
|---|---|---|---|---|
| Cohere Embed v4 | cohere.embed-v4:0 |
256-1536 | tekst + obraz | Najlepszy w Bedrock. Multimodalny, konfigurowalne wymiary. Domyślny w konektorze Intum |
| Cohere Embed Multilingual v3 | cohere.embed-multilingual-v3 |
1024 | tekst | Dobry do wielojęzycznego retrieval |
| Cohere Embed English v3 | cohere.embed-english-v3 |
1024 | tekst | Zoptymalizowany pod angielski |
| Amazon Titan Text Embeddings V2 | amazon.titan-embed-text-v2:0 |
1024 | tekst | Najtańszy. Słabszy jakościowo |
| Amazon Titan Embeddings G1 | amazon.titan-embed-text-v1 |
1536 | tekst | Starszy model, nie polecam |
| Amazon Titan Multimodal G1 | amazon.titan-embed-image-v1 |
1024 | tekst + obraz | Embeddingi z obrazów i tekstu |
| Amazon Nova Multimodal Embeddings | amazon.nova-2-multimodal-embeddings-v1:0 |
— | tekst + obraz + audio + wideo | Najnowszy, obsługuje 4 modalności |
| TwelveLabs Marengo Embed 3.0 | twelvelabs.marengo-embed-3-0-v1:0 |
— | tekst + obraz + audio + wideo | Specjalistyczny embedding wideo |
Modele generacji obrazów
| Model | Dostawca | Uwagi |
|---|---|---|
| Nova Canvas | Amazon | Generacja i edycja obrazów |
| Stable Diffusion 3.5 Large | Stability AI | Flagowy model Stability |
| Stable Image Ultra | Stability AI | Najwyższa jakość |
| Stable Image Core | Stability AI | Szybki, tańszy |
Stability AI oferuje też specjalistyczne narzędzia: inpainting, outpainting, usuwanie tła, zmiana stylu, upscaling.
Modele wideo
| Model | Dostawca | Uwagi |
|---|---|---|
| Nova Reel | Amazon | Generacja wideo z tekstu/obrazu |
| Ray v2 | Luma AI | Generacja wideo z tekstu |
| Pegasus v1.2 | TwelveLabs | Analiza i rozumienie wideo |
Modele głosowe (speech-to-speech)
| Model | Dostawca | Uwagi |
|---|---|---|
| Nova 2 Sonic | Amazon | Rozmowa głosowa w czasie rzeczywistym |
| Nova Sonic | Amazon | Poprzednia wersja |
| Voxtral Small/Mini | Mistral | Transkrypcja mowy na tekst |
Re-ranking
| Model | Dostawca | Uwagi |
|---|---|---|
| Amazon Rerank 1.0 | Amazon | Reranking wyników wyszukiwania |
| Cohere Rerank 3.5 | Cohere | Lepszy jakościowo od Amazon |
Cennik — orientacyjne koszty
Bedrock działa w modelu pay-per-use (płacisz za tokeny). Orientacyjne ceny za 1M tokenów input/output:
| Model | Input | Output | Uwagi |
|---|---|---|---|
| Nova Micro | $0.035 | $0.14 | Najtańszy w Bedrock |
| Nova Lite | $0.06 | $0.24 | Tani, multimodalny |
| Nova Pro | $0.80 | $3.20 | Dobry balans |
| Claude Haiku 4.5 | $0.80 | $4.00 | Tani Claude |
| Claude Sonnet 4.6 | $3.00 | $15.00 | Średnia półka |
| Claude Opus 4.6 | $15.00 | $75.00 | Premium |
| Llama 3.3 70B | $0.72 | $0.72 | Open source = tańszy |
| DeepSeek V3.2 | ~$0.50 | ~$2.00 | Dobra jakość za cenę |
| Titan Embeddings V2 | $0.02 | — | Embedding |
| Cohere Embed v4 | $0.10 | — | Embedding premium |
Dostępny jest też batch inference z 50% rabatem i provisioned throughput ze stałą opłatą godzinową.
Dostępność w regionie EU
Nie wszystkie modele są dostępne w regionie EU (eu-west-1). Najważniejsze modele Claude, Nova i Llama są dostępne z prefiksem eu. (np. eu.anthropic.claude-sonnet-4-6). Bedrock oferuje też Geo inference routing — automatyczny routing w obrębie EU, żeby dane nie wychodziły poza Europę.
Aktualna lista dostępności per region: Model support by AWS Region