➡️ Czego się nauczysz?
W trakcie tego materiału nabędziesz następujące umiejętności:
– Podstawowe umiejętności pracy z danymi geoprzestrzennymi z wykorzystaniem języka Python,
– Przetwarzanie i ekstrakcja cech z obrazów satelitarnych i danych rastrowych,
– Zastosowanie głębokiego uczenia do zadań wizji komputerowej z wykorzystaniem obrazów satelitarnych.
➡️ Dla kogo jest ten materiał?
Materiał jest skierowany do:
– Osób z branży IT i AI, które chcą poszerzyć swoją wiedzę w zakresie analizy danych geoprzestrzennych i teledetekcji,
– Inżynierów uczenia maszynowego oraz data scientistów zainteresowanych aplikacją swoich umiejętności w kontekście danych geoprzestrzennych,
– Osób pracujących w sektorze geoinformacji, które chcą dowiedzieć się, jak stosować głębokie uczenie do przetwarzania i analizy danych geoprzestrzennych.
➡️ Wymagania wstępne
Na czas materiału prosimy o przygotowanie następujących narzędzi/instalacji
– Python w wersji 3.11 lub wyższej,
– Środowisko wirtualne z zainstalowanymi bibliotekami: pandas, geopandas, Pillow, rasterio, scikit-learn, PyTorch,
– Narzędzia GIS: QGIS, CloudCompare (open-source),
– (opcjonalnie) Środowisko ze wsparciem GPU (CUDA).
➡️ Program
1. Typy i formaty danych geoprzestrzennych i teledetekcyjnych,
2. Podstawowa analiza danych geoprzestrzennych,
3. Deep learning dla danych teledetekcyjnych:
– Klasyfikacja obrazów satelitarnych z wykorzystaniem splotowych sieci neuronowych (CNN),
– Techniki detekcji obiektów,
– Segmentacja semantyczna w obrazach geoprzestrzennych,
– Praktyczne przykłady.
Materiał „Zastosowania uczenia głębokiego dla danych teledetekcyjnych i geoprzestrzennych” (C) Sages 2025.
➡️ Informacje o prowadzącym:
Mateusz Wójcik
Doświadczony inżynier ds. uczenia maszynowego oraz pasjonat edukacji w dziedzinie Data Science i AI. Obecnie pracuje jako Machine Learning Engineer w AI Clearing, gdzie rozwija innowacyjne rozwiązania do monitorowania postępów na projektach budowlanych, kontroli jakości i analizy defektów, specjalizując się w analizie danych z farm fotowoltaicznych pozyskiwanych za pomocą teledetekcji. Pracował jako Research Software Engineer w projekcie xLUNGS w MI2.ai, gdzie zajmował się rozwojem systemów wspomagających identyfikację zmian chorobowych na zdjęciach rentgenowskich i tomografii komputerowej płuc. Wcześniej, jako Machine Learning Engineer na Politechnice Warszawskiej, brał udział w projekcie INKUB, związanym z wykorzystaniem dronów i AI do inspekcji fasad budynków. Jest absolwentem Politechniki Warszawskiej, gdzie studiował na kierunku Data Science oraz ukończył studia licencjackie z matematyki, będąc również prezesem Koła Naukowego Matematyków i pracownikiem dydaktycznym.