Studia podyplomowe

Data Science – algorytmy, narzędzia i aplikacje dla problemów typu Big Data

REJESTRACJA OTWARTA

O studiach

Dane stają się coraz tańsze i wszechobecne. IBM szacuje, że 90 procent istniejących dziś na świecie danych zostało wytworzonych w ostatnich 2 latach. Dane te pochodzą z logów serwerów, urządzeń mobilnych, czujników, instrumentów, transakcji. Przetwarzanie i analiza danych przyczynia się do znajdowania wzorców i regularności w danych, które z kolei pozwalają na poprawę kondycji człowieka, wytworzenie komercyjnej i społecznej wartości.

Na rynku pracy istnieje znaczne, ciągle rosnące zapotrzebowanie na rozumiejących dane profesjonalistów w instytucjach biznesowych, publicznych, organizacjach non-profit. Podaż profesjonalistów mogących pracować efektywnie z dużymi wolumenami danych jest ograniczona i znajduje odzwierciedlenie w rosnących pensjach inżynierów danych, badaczy danych, statystyków i analityków danych. Portal Forbes.pl podaje szacunkowe dane nt. zarobków badaczy danych w USA, które wahają się od 50 tys. USD do 150 tys. USD, zależnie od doświadczenia.

Według Harvard Business Review Data Scientist to najbardziej seksowny zawód XXI wieku.

Zobacz jaki obszar zagadnień obejmuje Data Science:

Adresaci

Dla kogo są przeznaczone nasze studia?

Studia są przeznaczone dla osób chcących wykorzystywać wiedzę zawartą w dużych wolumenach danych w celu wspierania podejmowania decyzji, w szczególności dla analityków i decydentów z obszaru finansów, bankowości, ubezpieczeń, produkcji, marketingu, handlu, usług, opieki zdrowotnej, branży energetycznej, nauki i innych obszarów działalności. Od uczestników wymagana jest podstawowa umiejętność programowania w dowolnym języku oraz podstawowa znajomość zagadnień związanych z bazami danych i językiem SQL.

Dlaczego warto studiować Data Science w Instytucie Informatyki PW?

Studia prowadzone są przez praktyków: osoby na co dzień stosujące narzędzia i metody analizy dużych zbiorów danych w celu rozwiązania konkretnych problemów. Kadrę stanowią zarówno osoby pracujące w biznesie, jak w Instytucie Informatyki Politechniki Warszawskiej, który ma wieloletnie doświadczenie w obszarze eksploracji danych, implementacji systemów eksploracji tekstu, budowy ontologii, wyszukiwania informacji, sztucznej inteligencji.

Dowiedz się więcej

Big Data

Radek Szmit o Big Data

O Big Data z rozmowy z wykładowcą na tym kierunku Radosławem Szmitem

PODCAST

Data Science

Dlaczego wszyscy mówią o Data Science?

O tym, dlaczego zainteresowanie Data Science rośnie z każdym rokiem z rozmowy Łukasza Kobylińskiego i Jakuba Nowackiego

PODCAST

Cel studiów

Celem studiów podyplomowych "Data Science – algorytmy, narzędzia i aplikacje klasy Big Data" jest przekazanie słuchaczom praktycznych umiejętności z zakresu przetwarzania i analizy dużych danych i zapoznanie ich z rolą danych w procesach podejmowania decyzji oraz wykorzystaniem danych jako cennych aktywów strategicznych.

Czego się nauczysz

Po zakończonej nauce Twoje kompetencje wzbogacą się o umiejętność:

  • stosowania metod i narzędzi eksploracji danych
  • programowania w języku R oraz Python na potrzeby analityki dużych danych
  • przetwarzania danych tekstowych
  • stosowania najlepszych praktyk wizualizacji danych
  • używania metod sztucznej inteligencji

Jakie technologie poznasz

Na zajęciach prowadzonych w trybie warsztatowym poznasz od strony praktycznej m.in. następujęce technologie i narzędzia:

  • język Python
  • język R
  • Tableau®
  • SAS® Viya
  • Spark, Kafka, MapReduce
W pakiecie kurs e-learningowy z podstaw Pythona

Dlaczego warto wybrać nasze studia

Nasi wykładowcy

Nasi wykładowcy posiadają bogaty dorobek publikacyjny oraz doświadczenie w realizacji projektów badawczych i komercyjnych, co w połączeniu daje dostęp do eksperckiej wiedzy i praktycznego know-how.

Warsztatowy charakter zajęć

Zajęcia stanowią w większości zajęcia laboratoryjne ukierunkowane na rozwijanie kompetencji i praktycznej znajomości poznawanych narzędzi i technologii.

Najnowsze technologie

Dobór narzędzi i technologii oparty jest o analizę obecnie najpopularniejszych rozwiązań w obszarze Big Data i Data Science.

Renomowana uczelnia

Politechnika Warszawska jest jedną z największych i najlepszych uczelni technicznych w Polsce oraz w Europie Środkowo-Wschodniej. Potwierdzają to wyniki rankingów krajowych oraz zagranicznych, w których uczelnia znajduje się w czołówce klasyfikowanych polskich uczelni technicznych.

Program

Studia obejmują 197 godzin zajęć, w tym 116 godzin zajęć praktycznych w trakcie zjazdów weekendowych w ciągu 2 semestrów. Ukończenie studiów następuje na podstawie egzaminu końcowego.

Celem zajęć jest przybliżenie podstaw wnioskowania statystycznego, a w szczególności budowy modelu statystycznego, estymacji punktowej i przedziałowej, teorii weryfikacji hipotez oraz metod badania zależności między cechami.

Nauczysz się:

Metody i narzędzia eksploracji danych. Podstawowe rozkłady prawdopodobieństwa. Metody konstrukcji estymatorów punktowych i badania ich własności. Przedziały ufności. Podstawowe testy parametryczne. Testowanie zgodności i niezależności cech. Podstawy analizy regresji.

Wykorzystasz:

Język R, RStudio

Programowanie w R

Przedmiot obejmuje wprowadzenie do środowiska programistycznego R oraz narzędzia niezbędne do pracy (RStudio), zapoznanie z podstawowymi strukturami i typami danych, podstawy programowania w języku R, podstawowe zagadnienia związane z analizą danych ilościowych i jakościowych, wizualizację danych.

Nauczysz się:

Podstawowe typy i struktury danych, Elementy programowania w R (operacje zwektoryzowane jako główna cecha tego języka, instrukcje sterujące przepływem kodu, tworzenie własnych skryptów i funkcji), Podstawy analizy danych, Graficzna prezentacja wyników, Wybrane zaawansowane zagadnienia związane z programowaniem w R.

Programowanie w Python

Przedmiot skupia się na omówieniu kluczowych, z punktu widzenia pracy w Data Science, aspektów składni języka Python. Porusza ponadto zagadnienia związane z przetwarzaniem, analizą oraz wizualizacją danych, przy wykorzystaniu najpopularniejszych bibliotek Pythona przeznaczonych do tych celów.

Nauczysz się:

Korzystać z najważniejszych elementów składniowych języka Python (m.in. zmiennych, operatorów, prostych i złożonych typów danych, instrukcji warunkowych, pętli). Programować w sposób funkcyjny oraz obiektowy. Przetwarzać dane z pomocą biblioteki Pandas. Wykorzystywać funkcjonalności biblioteki scikit-learn do budowania prostych modeli. Wizualizować dane z wykorzystaniem wykresów dostępnych w bibliotece Matplotlib.

Wykorzystasz:

Język R, RStudio, Python, dystrybucję Anaconda, biblioteki: Pandas, scikit-learn, Matplotlib

W ramach przedmiotu omawiane są następujące zagadnienia: wprowadzenie do BigData, skalowalne systemy baz danych na przykładzie Apache Cassandra, składowanie plików na przykładzie Hadoop File System, analiza danych przy użyciu Hadoop Map-Reduce i Apache Spark, zarządzane zasobami, harmonogramowanie i zarządzanie danymi, bezpieczeństwo, integracja.

Nauczysz się:

Ekosystem Hadoopa, HDFS, Formaty plików: text,sequence files, RC, ORC, Parquet, Key-value stores: HBase, Accumulo, Cassandra, In-memory stores: Tachyon, Ignite, Paradygmat MapReduce, Hive, Spark, Kafka.

Wykorzystasz:

Hadoop, MapReduce, Cassandra, HBase, Spark, Hive, Kafka, Python

Prezentacje w ramach przedmiotu obejmują przegląd komercyjnego wykorzystania wybranych metod z obszaru Data Science i Big Data. Przykładowe zagadnienia prezentowane na wcześniejszych edycjach:

Data Science jako proces

Rola Data Science w firmie, kompetencje i narzędzia Data Science, zarządzanie procesem analityki danych, wnioskowanie na podstawie danych, rodzaje problemów analitycznych i modeli, projektowanie eksperymentu i prezentacja wyników.

Wyzwania w pracy Data Scientist w organizacji

Błędy poznawcze w prezentacji i wizualizacji danych, błędy poznawcze w zbieraniu i przygotowywaniu danych, walka z manipulacją, pozyskiwanie danych w organizacji, ograniczenia prawne i formalne w pracy z danymi, moralne aspekty pracy z danymi.

Rekomendacja i personalizacja w serwisach internetowych

Systemy rekomendacji/personalizacji danych. Learning to rank - jak nauczyć wyszukiwarkę rankingowania? Jak zbierać informacje o użytkownikach serwisów internetowych?

Analityka Big Data w banku

Rodzaje danych gromadzonych przez banki. Źródła danych zewnętrznych, architektura klastra Hadoop na przykładzie mBanku, przykłady analiz z wykorzystaniem metod Big Data (Hive/Spark), techniki oraz przykłady wizualizacji danych (R Shiny), rys regulacyjny dotyczący przechowywania i przetwarzania danych dotyczących klientów oraz potencjalnych klientów.

Wykorzystanie zasobów informacji niestrukturalnej w dużych przedsiębiorstwach

Architektura informacji, architektura systemów wyszukiwania przetwarzania języka naturalnego, podstawowe zastosowania biznesowe w przedsiębiorstwach: zarządzanie wiedzą, portal dostępu do informacji, aplikacje specjalizowane oparte na sinikach wyszukiwania.

Oprogramowanie SAS Viya, Visual Data Mining and Machine Learning - stanowi uniwersalny framework, który pozwala na łatwe wykorzystanie szeregu metod analitycznych przy budowie liniowych i nieliniowych modeli predykcyjnych oraz technik segmentacyjnych. Tworzone modele wspierają proces podejmowania decyzji z m.in. następujących obszarów: prawdopodobieństwo zajścia zdarzenia, oczekiwana wartość zdarzenia oraz szacowany czas wystąpienia zdarzenia.

Nauczysz się:

Supervised learning: Rodzaje modelowania ze względu na charakter zmiennej objaśnianej, Metody selekcji zmiennych, Techniki imputacji braków danych, Transformacje zmiennych, Drzewa decyzyjne, Regresja, Podstawy sieci neuronowych, Klasyfikacja modeli, Proces scoringu, Wykorzystanie zewnętrznych modeli, np.: R. Unsupervised learning: Techniki klasteryzacji danych, Profilowanie segmentów

Wykorzystasz:

SAS®Viya

Przedmiot obejmuje przegląd gałęzi sztucznej inteligencji i oferowanych przez nie metod przetwarzania dużych zbiorów danych. Działanie poszczególnych klas metod jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Algorytmów ewolucyjnych i genetycznych, metod przeszukiwania przestrzeni stanów, działania sieci neuronowych i konstrukcji systemów eksperckich.

Wykorzystasz:

Python

Przedmiot obejmuje przegląd metod eksploracji danych. W szczególności są tu prezentowane metody odnajdywania zbiorów częstych i reguł asocjacyjnych, metody klasyfikacji, znajdowania wzorców sekwencyjnych i grupowania (clustering). Funkcjonowanie poszczególnych klas prezentowanych metod eksploracji jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Odkrywanie zbiorów częstych przy użyciu algorytmu Apriori, Wyznaczanie reguł asocjacyjnych na podstawie zbiorów częstych, Klasyfikacja z użyciem drzew decyzyjnych, Klasyfikacja z użyciem naiwnego klasyfikatora Bayesowskiego, Klasyfikacja z użyciem wzorców kontrastowych, Ocena jakości klasyfikatora, Wzorce sekwencyjne, Grupowanie gęstościowe, Grupowanie hierarchiczne

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje przegląd metod automatycznego przetwarzania danych tekstowych. W szczególności są tu prezentowane zagadnienia z zakresu parsowania i struktury języka, analizy statystycznej, analizy gramatycznej, kategoryzacji i grupowania dokumentów, automatycznego tłumaczenia, budowania ontologii, analizy dokumentów hipertekstowych.

Nauczysz się:

Parsing i struktura języka(text corpora, słowa i zdania, tokenization, fleksja), Analiza statystyczna (modele dokumentów, modele języka, collocations, word sense disambiguation), Analiza gramatyczna (POS tagging, parsing, PCFG), Wyszukiwanie informacji, Kategoryzacja i grupowanie dokumentów, Streszczanie dokumentów, Tłumaczenie automatyczne, Wykrywanie słów kluczowych, Budowanie ontologii, Analiza dokumentów hipertekstowych (page rank, SEO), Profilowanie użytkowników, analiza sieci społecznościowych, Analiza zachowania użytkowników (sentiment analysis)

Wykorzystasz:

Python

Przedmiot obejmuje zagadnienia dotyczące najlepszych praktyk wizualizacji danych. W trakcie zajęć omawianych jest 8 typów wizualizacji danych: (i) porównanie części do całości, (ii) analiza w czasie, (iii) analiza relacji, (iv) analiza korelacji, (v) analiza porównawcza, (vi) dystrybuanta, (vii) analiza hierarchii, (viii) analiza przepływu. Rozważane są najczęściej popełniane błędy w wizualizacji danych oraz aktualne trendy w Business Intelligence, między innymi Self-Service Analytics. Podczas zajęć duży nacisk jest kładziony na omówienie najważniejszych koncepcji psychologicznych mających zastosowanie w wizualizacji danych, takich jak: psychologia poznawcza, psychologia Gestalt, prawo Hicksa, psychologia koloru, dopasowanie wzorców, rozpoznawanie twarzy, wpływ społeczny, progresywne ujawnianie, hierarchia potrzeb Maslowa, brzytwa Ockhama, efekt von Restorff. W trakcie zajęć są wyjaśniane pojęcia sygnałów biznesowych (Outliers) oraz koncepcja opowiadania historii przy użyciu danych (Storytelling).

Nauczysz się:

Jak w prosty i zrozumiały sposób pokazać to, co ważne i ukryć to, co nieistotne; Budować dashboard tak, aby użytkownik szybko dotarł do najważniejszych informacji; Dobierać odpowiednie wizualizacje w zależności od typu analizy w oparciu o zasady User Experience Design, Koncepcji wizualizacji danych.

Wykorzystasz:

Tableau®

W pakiecie kurs e-learningowy z podstaw Pythona

W ramach studiów realizowane są zajęcia z programowania w Pythonie dla początkujących. Ukończony kurs e-learningowy stanowi dobre do nich wprowadzenie oraz ułatwienie w opanowaniu materiału dla osób bez doświadczenia programistycznego.

  • 12 godzin nagrań
  • dla zupełnie początkujących, także dla osób bez doświadczenia programistycznego
  • możliwość pracy we własnym tempie
  • zadania sprawdzające opanowanie materiału

Wprowadzenie do środowiska i podstawowe pojęcia

Algorytmy i struktury danych

Programowanie obiektowe

Zaawansowane aspekty programowania obiektowego

Wyjątki i praca na plikach

Wykładowcy

Nasi wykładowcy na co dzień pracują przy dużych projektach biznesowych. Wielu z nich prowadzi zajęcia od pierwszej edycji studiów, nowi prowadzący wybierani są w ramach starannej selekcji. Każdy z nich poza ekspercką znajomością technologii posiada doskonałe umiejętności dydaktyczne zdobyte na salach szkoleniowych, wykładowych, konferencyjnych.

Absolwentka Szkoły Głównej Handlowej na kierunku Metody Ilościowe i Systemy Informacyjne w Ekonomii. Od początku kariery zawodowej związana z modelowaniem predykcyjnym zachowań klientów. Od ponad 6 lat pracuje w SAS Institute, gdzie zajmuje się wdrażaniem rozwiązań analitycznych w obszarze marketingu i ryzyka kredytowego. Interesuje się ekonomią behawioralną i praktycznym wykorzystaniem metod analitycznych.

Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej oraz European Engineering Studies na Uniwersytecie w Coventry w Wielkiej Brytanii. Rozpoczął pracę w Centrum Szkoleniowym SAS w 2011 roku, gdzie rozwijał swoje umiejętności trenerskie oraz kompetencje w dziedzinach przetwarzania i integracji danych oraz administrowania platformą SAS. Specjalizuje się w tematach przetwarzania oraz jakości danych. Obecnie pracuje w firmie SCS Expert gdzie bierze udział w projektach wykorzystując technologię SAS, Hadoop, AWS oraz innych otwartych narzędzi.

Jest autorem, współautorem ponad 100 publikacji naukowych, w tym artykułów w prestiżowych czasopismach naukowych, takich jak Cell, Nature Genetics, Nucleic Acids Research, Bioinformatics, Journal of Clinical Investigation, Genome Research, American Journal of Human Genetics. Głównym celem jego badań jest analiza danych z sekwencjonowania następnej generacji oraz danych z mikromacierzy. Jako doktorant na Politechnice Warszawskiej, dr Gambin był zaangażowany w kilka projektów prowadzonych we współpracy z Baylor Genetics (BG). Ponadto analizował dane aCGH zebrane w BG, w celu zbadania wpływu lokalnej architektury genomu na powstawanie rearanżacji DNA. W ramach stażu podoktorskiego odbytego w laboratorium prof. James’a Lupskiego (BCM, Houston) dr Gambin odegrał znaczącą rolę w odkryciach nowych genów chorobowych zidentyfikowanych w ramach projektu Centers for Mendelian Genomics. Obecnie dr Gambin jest zaangażowany w rozwój i wdrażanie skalowalnych rozwiązań chmurowych na potrzeby analiz genomicznych.

Obecnie zatrudniony jest jako asystent naukowo-dydaktyczny w Instytucie Informatyki Politechniki Warszawskiej. Jego zainteresowania badawcze obejmują odkrywanie wzorców sekwencyjnych z danych przestrzenno-czasowych, odkrywanie reguł asocjacyjnych oraz wykorzystanie takich reguł w zadaniach klasyfikacji, a także impulsowe sieci neuronowe, przetwarzanie szeregów czasowych, logiczne bazy danych oraz grupowanie. W roku akademickim 2017/2018 odbył staż naukowy w Knowledge Engineering and Discovery Research Institute (KEDRI) na Auckland University of Technology pracując pod opieką profesora Nikoli Kasabova nad nowymi metodami predykcji zanieczyszczenia powietrza z wykorzystaniem impulsowych sieci neuronowych. W styczniu oraz lutym 2019 odbył wizytę naukową w grupie badawczej OPTIMA kierowanej przez profesora Javiera Del Ser Lorente we firmie Tecnalia Research and Innovation w Kraju Basków. Celem wizyty naukowej było opracowanie nowej metody detekcji anomalii w szeregach czasowych. W okresie październik - grudzień 2019 odbył staż naukowy w Robotics Institute of Carnegie Mellon University, w trakcie którego zajmował się analizą danych związanych z przestępczością.

Konrad Jędrzejewski uzyskał tytuł magistra inżyniera elektroniki i telekomunikacji oraz stopień naukowy doktora nauk technicznych w dziedzinie elektroniki odpowiednio w latach 1995 i 2000 na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej (oba z wyróżnieniem). Stopień naukowy doktora habilitowanego w dyscyplinie elektronika uzyskał w roku 2014. Od czerwca 2019 roku pracuje na stanowisku profesora uczelni. W roku 1998 ukończył studia na Wydziale Nauk Ekonomicznych Uniwersytetu Warszawskiego uzyskując tytuł magistra na kierunku bankowość i finanse (z wyróżnieniem).

Od 2000 roku pracuje w Instytucie Systemów Elektronicznych na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. W latach 2000-2015 pracował dla NBP kierując projektami i wydziałami. Główne obszary jego działalności naukowo-badawczej to statystyczne i adaptacyjne przetwarzanie sygnałów i informacji, sztuczne sieci neuronowe, przetworniki analogowo-cyfrowe (A/C), w szczególności wykorzystujące oryginalne adaptacyjne algorytmy konwersji A/C, adaptacyjne systemy pomiarowe i telekomunikacyjne, przetwarzanie sygnałów biomedycznych, przetwarzanie sygnałów radiolokacyjnych,. Działalność dydaktyczna obejmuje przedmioty w takich obszarach jak adaptacyjne przetwarzanie sygnałów, teoria informacji, wnioskowanie statystyczne.

Konrad Jędrzejewski jest autorem ponad 80 publikacji naukowych, m.in. artykułów w czasopismach: Measurement, IEEE Transactions on Instrumentation and Measurement, Metrology and Measurement Systems, International Journal of Microwave and Wireless Technology. Jest autorem trzech patentów. Jest członkiem IEEE (senior member), członkiem Polskiego Towarzystwa Informatycznego (PTI), członkiem Polskiego Stowarzyszenia Pomiarów, Automatyki i Robotyki (POLSPAR), członkiem IT Service Management Forum (itSMF) Polska, ekspertem Narodowego Centrum Badań i Rozwoju (NCBiR). Jest członkiem Editorial Board i edytorem (Section Editor) czasopisma ACTA IMEKO oraz edytorem (Section Editor) w International Journal of Electronics and Telecommunications (IJET) i (Associate Editor) w International Journal of Microwave and Wireless Technology. Od marca 2019 roku jest wiceprzewodniczącym Poland Chapter of IEEE Signal Processing Society. Od grudnia 2019 roku jest członkiem zarządu Polskiego Stowarzyszenia Pomiarów, Automatyki i Robotyki (POLSPAR) i sekretarzem Komitetu Pomiarów POLSPAR.

Marzena Bogumiła Kryszkiewicz w roku 1995 uzyskała stopień doktora nauk technicznych w dyscyplinie Informatyka na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, a jej rozprawa doktorska p.t. „Algorytmy redukcji wiedzy w systemach informacyjnych” została wyróżniona. W 2003 r. uzyskała tam stopień doktora habilitowanego w dyscyplinie Informatyka. Za rozprawę habilitacyjną, zatytułowaną „Concise Representations of Frequent Patterns and Association Rules”, otrzymała nagrodę Ministra ENiS w roku 2004. W okresie styczeń-kwiecień 1999 była zatrudniona jako profesor wizytujący w North Carolina University, USA. W latach 2005-2008 pełniła funkcję Prodziekana ds. Nauczania na Wydziale Elektroniki i Technik Informacyjnych PW. W latach 2006-2016 była zatrudniona na stanowisku profesora nadzwyczajnego w Instytucie Informatyki Politechniki Warszawskiej, a od roku 2016 jest tam zatrudniona na stanowisku profesora zwyczajnego (aktualnie zwanego stanowiskiem profesora). Od roku 2009 jest kierownikiem Zakładu Systemów Informacyjnych w tym instytucie. Jest członkiem Rady Naukowej IPI PAN od 2015 r., a od roku 2016 jest starszym rangą członkiem International Rough Set Society IRSS. Od 2019 roku jest członkiem Komitetu Sterującego International Rough Set Society IRSS oraz członkiem Zespołu ds. Stopni Naukowych Rady Naukowej Dyscypliny Informatyka Techniczna i Telekomunikacja w PW. Wypromowała 5 doktorów. Była nagradzana przez Rektora PW za działalność naukową, dydaktyczną i organizacyjną. W roku 2017 została odznaczona Medalem Komisji Edukacji Narodowej. Jej zainteresowania badawcze obejmują: eksplorację danych, odkrywanie wiedzy, zwięzłe reprezentacje wiedzy, w tym reguł asocjacyjnych i wzorców czasowo-przestrzennych, miary oceny reguł asocjacyjnych i decyzyjnych, wydajne wyszukiwanie obiektów podobnych/bliskich, grupowanie, klasyfikację, wykrywanie anomalii, impulsowe sieci neuronowe, rozumowanie w warunkach niepełności i niepewności, zbiory przybliżone, ochronę prywatności. Opublikowała 110 artykułów. Była przewodniczącą konferencji międzynarodowej ISMIS 2011 oraz przewodniczącą komitetów programowych konferencji międzynarodowych RSEISP 2007, RSCTC 2010, CLA 2010, JRS 2014, PReMI 2015, ISMIS 2017, a także przewodniczącą warsztatów międzynarodowej konferencji ECML/PKDD 2011. Recenzowała prace dla międzynarodowych czasopism: IEEE Transactions on Knowledge and Data Engineering, International Journal of Intelligent Systems; International Journal of Information Sciences, Knowledge and Information Systems: An International Journal, Fundamenta Informaticae, Elsevier Data and Knowledge Engineering Journal, Springer Data Mining and Knowledge Discovery Journal, Transactions on Rough Sets Journal, International Journal of Applied Intelligence, European Journal of Operational Research, ARIMA/SACJ Journal.

Marek Rupniewski uzyskał stopień doktora w Instytucie Matematycznym Polskiej Akademii Nauk w roku 2009. Wcześniej studiował na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, gdzie w roku 2002 uzyskał tytuł magistra inżyniera na specjalności inżynieria komputerowa oraz na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego, uzyskując tam tytuł magistra matematyki w roku 2004. Od 2003 roku pracuje w Instytucie Systemów Elektronicznych na Politechnice Warszawskiej. Jego badania naukowe koncentrują się wokół teorii przetwarzania sygnałów, a zwłaszcza jej statystycznych aspektów.

Pasjonat nowoczesnych technologii, poznawania świata przez pryzmat danych oraz nauczania. Miłośnik ciągłego zdobywania i pogłębiania wiedzy. Studiował matematykę w ramach specjalności data science, informatykę, ekonomię oraz zarządzanie. Obecnie pracuje w wolnych chwilach nad doktoratem dotyczącym zagadnień modelowania rynków finansowych z wykorzystaniem złożonych algorytmów predykcyjnych. Od początku kariery zawodowej związany z branżami data science i computer science. Aktualnie zajmuje się kierowaniem oraz realizacją projektów data science dla sektora finansowego. Wcześniej miał okazję pracować nad rozwojem dużych systemów informatycznych opartych o języki Java, Python i R, technologie big data oraz algorytmy data science.

Absolwentka wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej, kierunku Matematyka. Od prawie 14 lat związana jest z SAS Institute Polska. Obecnie jako Principal Industry Consultant pracuje w jednostce Customer Intelligence. Do jej głównych obszarów odpowiedzialności należą wdrożenia systemów analitycznych i operacyjnych CRM. Odpowiada m.in. za analizę wymagań biznesowych, projekt i budowę systemów analitycznych, definicję i dostarczenie modeli data mining/machine learning, projekt i budowę oraz optymalizację kampanii marketingowych batch/real-time.

Absolwent Politechniki Warszawskiej i Kungliga Tekniska Högskolan w Sztokholmie. Specjalista zagadnień uczenia maszynowego, dużych zbiorów zdanych i modelowania statystycznego. Doświadczenie zdobywał w branży ecommerce, bankowości oraz adtechu, gdzie rozwiązywał problemy związane z systemami rekomendacyjnymi, detekcją fraudów i targetowaniem. Prywatnie pasjonat motoryzacji, futbolu oraz rynku nieruchomości.

Paweł Wawrzyński jest zastępcą dyrektora ds. naukowych Instytutu Informatyki Politechniki Warszawskiej. Posiada stopień doktora habilitowanego nauk technicznych w dziedzinie informatyki (Politechnika Warszawska) oraz magistra ekonomii (Uniwersytet Warszawski). Jego zainteresowania naukowe obejmują sztuczną inteligencję, a zwłaszcza sieci neuronowe i uczenie maszynowe. Jest autorem ponad czterdziestu publikacji naukowych w czasopismach i na konferencjach międzynarodowych, a także szeregu patentów i książek. Doświadczenie biznesowe Pawła Wawrzyńskiego obejmuje członkostwo w zarządach spółek z sektora deweloperskiego oraz elektronicznego.

Agnieszka Szmurło jest absolwentką Informatyki na PW z 2009r. Przez 10 lat zawodowo związana była z branżą finansową, gdzie pracowała jako Architekt Integracji i Architekt Rozwiązań IT. W 2017 rozpoczęła studia doktoranckie na PW w ramach których, zajmuje się opracowaniem skalowalnych algorytmów do analizy i przetwarzania danych genomicznych z wielkoskalowych eksperymentów. Działa w grupie badawczej biodatageeks (http://biodatageeks.org/). Od 2018 zajmuje także stanowisko asystenta w Instytucie Informatyki, prowadząc przedmioty takie jak Bazy Danych i Programowanie w Python.

Absolwent kierunku Metody Ilościowe w Ekonomii i Systemy Informacyjne w Szkole Głównej Handlowej w Warszawie oraz International Management na Tilburg University w Holandii. Swoją przygodę z danymi rozpoczął w firmie Groupon jako Business Intelligence Analyst dla regionu EMEA. Następnie pracował w SAS Institute i odpowiadał za realizację projektów analitycznych i BI, głównie dotyczących zagadnień Customer Intelligence oraz Text Analytics. Z Big data zmierzył się w Allegro, gdzie zajmował się zagadnieniami dotyczącymi systemów rekomendacji, wektoryzacji języka oraz machine learningu. Obecnie jako R&D Team Leader w Sotrender realizuje projekty związane z zastosowaniem modeli predykcyjnych, NLP i Computer Vision w mediach społecznościowych. Edukuje, gdy tylko może, na tech talkach, konferencjach czy studiach podyplomowych. Prowadzi również warsztaty jako trener Machine Learningu i członek zespołu Data Science w Sages.

Rada programowa

Aby zapewnić aktualność programu studiów konsultujemy dobór tematyki oraz technologii z ekspertami wywodzącymi się ze środowisk akademickiego oraz biznesowego..

Robert Bembenik

Kierownik Studium

Krzysztof Dąbrowski

CIO/CTO, mBank S.A.

Piotr Gawrysiak

Profesor Nadzwyczajny, Instytut Informatyki PW

Łukasz Kobyliński

Chief Science Officer, Board Member, Sages

Jakub Koperwas

JEE Consultant & Partner, Sages

Radosław Lipiński

Senior Team Manager, Roche

Mieczysław Muraszkiewicz

Profesor, Instytut Informatyki PW

Jakub Nowacki

Senior Software Engineer, CodiLime

Andrzej Olękiewicz

Digital R&D Director, TNS Polska SA

Robert Stanikowski

Partner and Managing Director, CEE Technology Advantage Practice Leader, The Boston Consulting Group

Paweł Wróblewski

Regional Manager, Findwise

Sprawdź zasady rekrutacji i opłaty

Ze względu na duże zainteresowanie studiami zalecamy skorzystanie z formularza rezerwacyjnego, celem przyspieszenia procesu aplikacji.

Dowiedz się więcej

Partnerzy merytoryczni

logo-img
logo-img
logo-img
logo-img