Amazon Web Services (AWS) to najbardziej kompleksowa i rozpowszechniona platforma chmurowa na świecie, oferująca ponad 200 w pełni funkcjonalnych usług dostępnych w infrastrukturze rozsianej po całym globie. Platforma ta umożliwia firmom każdej wielkości budowanie, wdrażanie i skalowanie aplikacji bez inwestowania we własną infrastrukturę fizyczną.

AWS stanowi pomost między tradycyjnym modelem posiadania sprzętu a nowoczesnym podejściem cloud computing, gdzie zasoby obliczeniowe są dostępne na żądanie z płatnością za rzeczywiste zużycie. W 2020 roku AWS posiadał 32% udziału w rynku publicznych usług chmurowych, a w 2025 roku jego udział wyniósł około 30% globalnego rynku infrastruktury chmurowej, plasując go na czele konkurencji wobec Microsoft Azure z 20% i Google Cloud Platform z 12% udziałem rynku.

Geneza i ewolucja Amazon Web Services

Historia AWS sięga 2002 roku, kiedy Amazon rozpoczęło świadczenie usług internetowych, a od marca 2006 roku zaczęło oferować usługi chmury obliczeniowej. Ta decyzja wynikała z obserwacji, że Amazon posiada rozbudowaną wewnętrzną infrastrukturę IT, którą można udostępnić innym firmom.

Zamiast utrzymywać ją wyłącznie dla własnych potrzeb e-commerce, Amazon zdecydował się ją zmonetyzować, tworząc nową kategorię biznesową. Pierwsze usługi AWS — Amazon EC2 i Amazon S3 — uruchomione w 2006 roku, stały się filarami późniejszej ekspansji platformy. Od tego czasu AWS nieustannie rozszerza ofertę, zasięg geograficzny i dopasowuje usługi do zmieniających się potrzeb rynku.

Dziś AWS obsługuje miliony klientów na całym świecie — od startupów potrzebujących elastyczności po gigantów technologicznych wymagających skomplikowanych architektur dla obsługi miliardów użytkowników.

Fundamentalne usługi obliczeniowe i przechowywania danych

Amazon Elastic Compute Cloud (EC2)

Amazon EC2 to jeden z fundamentów ekosystemu AWS, oferujący skalowalne moce obliczeniowe w chmurze poprzez wirtualne serwery dostępne na żądanie. Usługa umożliwia szybkie konfigurowanie i wdrażanie aplikacji w różnych środowiskach bez zakupu fizycznych serwerów. EC2 zmienia ekonomię IT — płacisz tylko za pojemność, którą faktycznie wykorzystujesz, eliminując zbędne inwestycje kapitałowe.

Dostępne typy instancji obejmują:

  • ogólnego przeznaczenia,
  • zoptymalizowane pod kątem procesora,
  • zoptymalizowane pod kątem pamięci,
  • z GPU,
  • mikroinstancje do lekkich obciążeń.

Amazon Simple Storage Service (S3)

Amazon S3 to usługa przechowywania danych w chmurze zapewniająca praktycznie nieograniczoną pojemność i stanowiąca centralny element wielu rozwiązań na AWS. S3 oferuje wytrzymałość danych na poziomie 99,999999999% (11 dziewiątek), zaawansowane mechanizmy zarządzania danymi oraz precyzyjne kontrolowanie dostępu.

Najczęstsze przypadki użycia S3 obejmują:

  • hostowanie stron internetowych,
  • aplikacje mobilne i webowe,
  • backup i odtwarzanie po awarii,
  • archiwizację danych,
  • aplikacje korporacyjne,
  • IoT i strumieniowanie danych,
  • analitykę big data.

Klasy przechowywania w S3 pomagają precyzyjnie dopasować koszty do profilu dostępu do danych:

  • S3 Standard – dla danych często odczytywanych, o niskich opóźnieniach i wysokiej przepustowości;
  • S3 Standard-IA – dla danych rzadziej używanych, z niższą ceną za GB i opłatą za odczyt;
  • S3 One Zone-IA – tańsza opcja dla danych rzadko używanych, przechowywanych w jednej strefie dostępności;
  • S3 Glacier Instant Retrieval – archiwum z natychmiastowym dostępem przy niskim koszcie przechowywania;
  • S3 Glacier Flexible Retrieval – archiwum dla danych długoterminowych z elastycznym czasem przywracania;
  • Amazon S3 Glacier Deep Archive – najniższy koszt przechowywania dla długoterminowej archiwizacji z dostępem w ciągu godzin.

Taka elastyczność pozwala znacząco optymalizować koszty poprzez dopasowanie klasy do częstotliwości dostępu i wymaganego czasu przywracania.

Amazon Relational Database Service (RDS)

Amazon RDS automatyzuje złożone zadania administracyjne w bazach danych — konfigurację, backupy, aktualizacje oprogramowania i łatki bezpieczeństwa. Obsługuje popularne silniki, co ułatwia migrację do chmury:

  • MySQL,
  • PostgreSQL,
  • Oracle Database,
  • SQL Server,
  • MariaDB.

Najważniejsze funkcje wysokiej dostępności i odporności w RDS to:

  • Multi-AZ – synchroniczna replikacja między strefami dostępności;
  • Read Replicas – skalowanie odczytów bez zwiększania obciążenia bazy źródłowej;
  • Point-in-Time Recovery – odtworzenie bazy do wybranego punktu w czasie;
  • Automatyczne aktualizacje – zarządzanie wersjami i poprawkami bezpieczeństwa.

To rozwiązanie dla firm wymagających wysokiej dostępności i niezawodności bez kosztów utrzymania infrastruktury on-premise.

Sieci, bezpieczeństwo i zaawansowana infrastruktura

Amazon Virtual Private Cloud (VPC)

Amazon VPC umożliwia tworzenie izolowanych środowisk w chmurze z pełną kontrolą nad konfiguracją sieciową. Pozwala definiować zakresy adresów IP, podsieci, tablice routingu i reguły dostępu. VPC jest fundamentem bezpiecznego wdrażania aplikacji w AWS i integruje się z innymi usługami (m.in. EC2, RDS), umożliwiając projektowanie wielowarstwowych architektur z precyzyjnie zdefiniowanymi granicami bezpieczeństwa.

Bezpieczeństwo i zarządzanie tożsamością

Bezpieczeństwo w AWS opiera się na zasadzie „security by design” i obejmuje szyfrowanie danych w spoczynku i w transporcie, zaawansowane zarządzanie dostępem z AWS Identity and Access Management (IAM) oraz ciągłe monitorowanie i audyty.

Wybrane usługi bezpieczeństwa i ich rola:

  • Amazon GuardDuty – wykrywanie zagrożeń w oparciu o analizę zdarzeń i uczenie maszynowe;
  • AWS Security Hub – centralizacja alertów i zgodności z najlepszymi praktykami;
  • Amazon Detective – badanie przyczyn incydentów z wglądem w kontekst;
  • AWS WAF – ochrona aplikacji webowych przed atakami (np. SQL injection, XSS);
  • AWS Shield – ochrona przed atakami DDoS na warstwach sieci i aplikacji.

AWS odpowiada za ochronę globalnej infrastruktury, w tym fizyczne bezpieczeństwo centrów danych, sieci i warstw wirtualizacji.

Zaawansowane usługi analityczne i przetwarzania danych

Usługi analityki danych

Poniżej trzy kluczowe usługi analityczne wraz z zastosowaniami:

  • Amazon Athena – interaktywne, bezserwerowe zapytania SQL bezpośrednio do danych w Amazon S3; płacisz tylko za uruchomione zapytania;
  • Amazon Redshift – kolumnowa, rozproszona i w pełni zarządzana hurtownia danych dla dużych zbiorów i narzędzi BI;
  • Amazon QuickSight – interaktywne wizualizacje, analizy w czasie rzeczywistym i integracja z zewnętrznymi źródłami danych.

Uczenie maszynowe i sztuczna inteligencja

Amazon SageMaker to w pełni zarządzana usługa ML do szybkiego budowania, trenowania i wdrażania modeli w środowisku produkcyjnym. Zapewnia zarządzane algorytmy, obsługę własnych frameworków i elastyczne, rozproszone opcje treningowe. W kilku krokach można wdrożyć model do bezpiecznego i skalowalnego środowiska hostingowego bez konieczności utrzymywania własnych serwerów.

Amazon Bedrock zapewnia dostęp do wysokowydajnych modeli bazowych (foundation models) przez jednolity interfejs API oraz pozwala je dostrajać i łączyć z danymi użytkownika przy zachowaniu najwyższych standardów prywatności. Dostępne modele pochodzą m.in. od:

  • AI21 Labs,
  • Anthropic,
  • Cohere,
  • Meta,
  • Stability AI,
  • Amazon.

Dane użytkownika nie są przechowywane ani używane do trenowania modeli, a szyfrowanie w transporcie i spoczynku oraz polityki oparte na tożsamości chronią dostęp.

Usługi serverless i konteneryzacji

AWS Lambda i architektura serverless

AWS Lambda umożliwia uruchamianie kodu bez zarządzania serwerami, automatycznie skaluje się do tysięcy równoległych wywołań i uruchamia kod tylko wtedy, gdy jest potrzebny. Rozliczenie odbywa się na podstawie liczby wywołań oraz czasu działania (np. ok. 0,20 USD za milion żądań).

Główne korzyści z wykorzystania AWS Lambda obejmują:

  • automatyczne skalowanie oparte na zdarzeniach,
  • brak administracji serwerami i patchowania,
  • rozliczanie wyłącznie za faktyczne wykorzystanie zasobów,
  • wysoką współbieżność i odporność.

Amazon ECS i Amazon EKS dla kontenerów

Amazon ECS to zarządzany system orkiestracji kontenerów o głębokiej integracji z usługami AWS i prostej konfiguracji. Obsługuje Docker i inne obrazy, a dzięki AWS Fargate pozwala uruchamiać kontenery bez zarządzania serwerami.

Amazon EKS to zarządzany Kubernetes zgodny ze standardem upstream, oferujący automatyczne skalowanie, rolling updates i przenośność aplikacji między chmurami i środowiskami on-premise. AWS Fargate działa zarówno z ECS, jak i EKS, przenosząc zarządzanie serwerami i alokacją zasobów na AWS.

Narzędzia deweloperskie i ciągłe wdrażanie

AWS CodePipeline i CI/CD

AWS CodePipeline automatyzuje budowanie, testowanie i wdrażanie za każdym razem, gdy następuje zmiana w kodzie, a integracje z narzędziami (np. GitHub) usprawniają przepływy pracy.

Typowe etapy potoku obejmują:

  • pobranie kodu,
  • budowanie artefaktów,
  • testowanie,
  • wdrożenie do środowisk docelowych,
  • opcjonalną akceptację ręczną.

Płacisz wyłącznie za wykorzystanie — bez opłat wstępnych i zobowiązań.

AWS Amplify dla tworzenia aplikacji webowych

AWS Amplify to zestaw narzędzi do szybkiego uruchamiania aplikacji webowych i mobilnych. Automatyzuje konfigurację usług serverless z poziomu CLI, upraszcza uwierzytelnianie i autoryzację oraz umożliwia synchronizację offline/online.

Amplify wspiera popularne frameworki front-end:

  • Angular,
  • React,
  • React Native,
  • Vue,
  • JavaScript.

Amplify skaluje się do milionów żądań i uspójnia współpracę front-endu z back-endem, w tym zapisy i odczyty danych przy braku połączenia z Internetem.

Infrastruktura globalna, ceny i zgodność

Globalna infrastruktura AWS

AWS utrzymuje infrastrukturę obejmującą 120 stref dostępności w 38 regionach, z planami dodania kolejnych stref i regionów (m.in. Arabia Saudyjska, Chile, Europejska Chmura Suwerenna AWS). Każdy region składa się z co najmniej trzech fizycznie odseparowanych stref dostępności połączonych redundantnymi sieciami o niskich opóźnieniach. Projekt multi-AZ zwiększa dostępność i odporność, a infrastruktura spełnia najwyższe standardy bezpieczeństwa.

Model cenowy AWS

AWS stosuje elastyczny model pay-as-you-go, w którym płaci się wyłącznie za wykorzystane zasoby, bez długoterminowych umów i opłat z góry. Koszty przechowywania naliczane są według GB/TB na miesiąc, liczby operacji i regionu, a koszty obliczeń zależą od typu instancji i czasu działania.

Najpopularniejsze opcje zakupu mocy obliczeniowej to:

  • On-Demand – elastyczność bez zobowiązań,
  • Reserved Instances – niższa cena w zamian za deklarację wykorzystania,
  • Spot Instances – znaczne oszczędności przy przerywalnych obciążeniach.

Transfer do Internetu jest płatny, natomiast wewnętrzny transfer danych w tym samym regionie zwykle jest bezpłatny (transfer między regionami może generować koszty).

Narzędzia i praktyki optymalizacji kosztów obejmują:

  • Savings Plans – oszczędności w zamian za zobowiązanie do określonego wykorzystania na 1 lub 3 lata,
  • Auto Scaling – dynamiczne dopasowanie zasobów do obciążenia,
  • AWS Lambda – rozliczanie za liczbę wywołań i czas wykonania,
  • Wybór regionu – ceny mogą różnić się między regionami,
  • AWS Free Tier – możliwość testów bez kosztów oraz kredyty do 200 USD dla nowych klientów.

Zgodność i certyfikacje bezpieczeństwa

AWS wspiera 143 standardy i certyfikacje (m.in. PCI DSS, HIPAA/HITECH, FedRAMP, GDPR, FIPS 140-3, NIST 800-171), regularnie weryfikowane przez niezależnych audytorów. AWS Artifact zapewnia dostęp na żądanie do raportów bezpieczeństwa i zgodności AWS i ISV. Bezpieczeństwo i zgodność to model wspólnej odpowiedzialności — AWS odpowiada za warstwę fizyczną i wirtualizację, a klient za konfigurację usług, dane i tożsamości.

Usługi internetu rzeczy i migracji

AWS IoT – internet rzeczy

AWS oferuje platformę chmurową do projektów IoT, a usługi dzielą się na trzy kategorie:

  • Device Software – oprogramowanie urządzeń,
  • Connectivity & Control Services – łączność i kontrola,
  • Analytics Services – analityka.

Kluczowe komponenty i ich funkcje:

  • FreeRTOS – system dla mikrokontrolerów z gotową łącznością do chmury;
  • AWS IoT Device SDK – biblioteki do bezpiecznej komunikacji z AWS;
  • AWS IoT Greengrass – lokalne przetwarzanie, zarządzanie danymi i wdrażanie modeli AI na brzegu;
  • AWS IoT Core – uwierzytelnianie, autoryzacja i utrzymanie połączeń, również w trybie offline;
  • AWS IoT Device Management – masowe rejestrowanie, monitorowanie i aktualizacje urządzeń;
  • AWS IoT Device Defender – egzekwowanie polityk bezpieczeństwa i audyty;
  • AWS IoT SiteWise – modelowanie danych fabrycznych i wizualne dashboardy dla przemysłu.

Migracja do chmury AWS

Migracja to przenoszenie danych, aplikacji i infrastruktury z lokalnych środowisk lub innych chmur do AWS. Aby transformacja była skuteczna i opłacalna, należy dobrze przeanalizować cele biznesowe i zaplanować proces.

Najpopularniejsze strategie migracji obejmują:

  • Lift-and-shift (rehosting) – przeniesienie aplikacji bez zmian,
  • Replatforming – ograniczone modyfikacje i wykorzystanie usług zarządzanych,
  • Refactoring – przebudowa w kierunku mikrousług i kontenerów.

Do migracji danych przydatne są AWS Database Migration Service i AWS Snowball. Pierwszym krokiem jest identyfikacja celów, inwentaryzacja zasobów oraz ocena gotowości do migracji.

Monitorowanie, zarządzanie i optymalizacja

Amazon CloudWatch i obserwowalność

Amazon CloudWatch to skalowalna usługa monitorowania do zbierania, analizowania i wizualizacji danych o infrastrukturze i aplikacjach. CloudWatch gromadzi metryki, analizuje logi, tworzy alarmy i automatyzuje reakcje w oparciu o zdarzenia.

Usługa monitoruje m.in. EC2 (CPU, sieć, dyski), RDS (połączenia, opóźnienia zapytań), Lambda (wywołania, czasy, błędy) oraz obsługuje metryki własne. CloudWatch Alarms wywołują akcje (np. SNS, Auto Scaling, Lambda) na podstawie progów.

AWS Auto Scaling i elastyczne zarządzanie zasobami

AWS Auto Scaling monitoruje i automatycznie skaluje zasoby, utrzymując przewidywalną wydajność przy najniższych możliwych kosztach.

Najczęściej skalowane zasoby to:

  • instancje Amazon EC2,
  • tabele i indeksy Amazon DynamoDB,
  • klastry Amazon Aurora.

Elastic Load Balancing automatycznie rozdziela ruch na wiele celów (instancje EC2, kontenery, adresy IP), monitoruje stan celów i kieruje ruch tylko do zdrowych zasobów, zwiększając dostępność i odporność aplikacji.