Studia podyplomowe

Data Science – algorytmy, narzędzia i aplikacje dla problemów typu Big Data

BRAK MIEJSC

O studiach

Dane stają się coraz tańsze i wszechobecne. IBM szacuje, że 90 procent istniejących dziś na świecie danych zostało wytworzonych w ostatnich 2 latach. Dane te pochodzą z logów serwerów, urządzeń mobilnych, czujników, instrumentów, transakcji. Przetwarzanie i analiza danych przyczynia się do znajdowania wzorców i regularności w danych, które z kolei pozwalają na poprawę kondycji człowieka, wytworzenie komercyjnej i społecznej wartości.

"W ostatnich latach pojawił się nowy zawód, „badacz danych” (ang. data scientist), który łączy w sobie umiejętności statystyka, programisty, projektanta oprogramowania i gawędziarza. Zamiast wpatrywać się w mikroskop, aby odkryć tajemnice wszechświata, badacz danych, aby dokonać odkrycia, z uwagą przygląda się bazom danych."

Mayer-Schonberger V., Cukier K.: Big Data: A Revolution That Will Transform How We Live, Work, and Think, Eamon Dolan/Mariner Books 2014

Na rynku pracy istnieje znaczne, ciągle rosnące zapotrzebowanie na rozumiejących dane profesjonalistów w instytucjach biznesowych, publicznych, organizacjach non-profit. Podaż profesjonalistów mogących pracować efektywnie z dużymi wolumenami danych jest ograniczona i znajduje odzwierciedlenie w rosnących pensjach inżynierów danych, badaczy danych, statystyków i analityków danych. Portal Forbes.pl podaje szacunkowe dane nt. zarobków badaczy danych w USA, które wahają się od 50 tys. USD do 150 tys. USD, zależnie od doświadczenia.

Według Harvard Business Review Data Scientist to najbardziej seksowny zawód XXI wieku.

Cel studiów

Celem studiów podyplomowych "Data Science – algorytmy, narzędzia i aplikacje klasy Big Data" jest przekazanie słuchaczom praktycznych umiejętności z zakresu przetwarzania i analizy dużych danych i zapoznanie ich z rolą danych w procesach podejmowania decyzji oraz wykorzystaniem danych jako cennych aktywów strategicznych.

Dla kogo są przeznaczone nasze studia?

Studia są przeznaczone dla osób chcących wykorzystywać wiedzę zawartą w dużych wolumenach danych w celu wspierania podejmowania decyzji, w szczególności dla analityków i decydentów z obszaru finansów, bankowości, ubezpieczeń, produkcji, marketingu, handlu, usług, opieki zdrowotnej, branży energetycznej, nauki i innych obszarów działalności. Od uczestników wymagana jest podstawowa umiejętność programowania w dowolnym języku oraz podstawowa znajomość zagadnień związanych z bazami danych i językiem SQL.

Dlaczego warto studiować Data Science w Instytucie Informatyki PW?

Zakład Systemów Informacyjnych Instytutu Informatyki prowadzi projekty rozwojowo-badawcze dotyczące m.in. praktyki i teorii systemów informacyjnych obejmujących zagadnienia eksploracji danych, implementacji systemów eksploracji tekstu, budowy ontologii, wyszukiwania informacji, sztucznej inteligencji.

Zobacz jaki obszar zagadnień obejmuje Data Science

Program studiów Data Science

Studia obejmują 197 godzin zajęć, w tym 116 godzin zajęć praktycznych w trakcie zjazdów weekendowych w ciągu 2 semestrów. Ukończenie studiów następuje na podstawie egzaminu końcowego. Szczegółowy terminarz zajęć znajduje się tutaj.

Celem zajęć jest przybliżenie podstaw wnioskowania statystycznego, a w szczególności budowy modelu statystycznego, estymacji punktowej i przedziałowej, teorii weryfikacji hipotez oraz metod badania zależności między cechami.

Nauczysz się:

Metody i narzędzia eksploracji danych. Podstawowe rozkłady prawdopodobieństwa. Metody konstrukcji estymatorów punktowych i badania ich własności. Przedziały ufności. Podstawowe testy parametryczne. Testowanie zgodności i niezależności cech. Podstawy analizy regresji.

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje wprowadzenie do środowiska programistycznego R oraz narzędzia niezbędne do pracy (RStudio), zapoznanie z podstawowymi strukturami i typami danych, podstawy programowania w języku R, podstawowe zagadnienia związane z analizą danych ilościowych i jakościowych, wizualizację danych.

Nauczysz się:

Podstawowe typy i struktury danych, Elementy programowania w R (operacje zwektoryzowane jako główna cecha tego języka, instrukcje sterujące przepływem kodu, tworzenie własnych skryptów i funkcji), Podstawy analizy danych, Graficzna prezentacja wyników, Wybrane zaawansowane zagadnienia związane z programowaniem w R

Wykorzystasz:

Język R, RStudio

W ramach przedmiotu omawiane są następujące zagadnienia: wprowadzenie do BigData, skalowalne systemy baz danych na przykładzie Apache Cassandra, składowanie plików na przykładzie Hadoop File System, analiza danych przy użyciu Hadoop Map-Reduce i Apache Spark, zarządzane zasobami, harmonogramowanie i zarządzanie danymi, bezpieczeństwo, integracja.

Nauczysz się:

Ekosystem Hadoopa, HDFS, Formaty plików: text,sequence files, RC, ORC, Parquet, Key-value stores: HBase, Accumulo, Cassandra, In-memory stores: Tachyon, Ignite, Paradygmat MapReduce, Hive, Spark, Kafka

Wykorzystasz:

Hadoop, MapReduce, Cassandra, HBase, Spark, Hive, Kafka

Prezentacje w ramach przedmiotu obejmują przegląd komercyjnego wykorzystania wybranych metod z obszaru Data Science i Big Data, w szczególności następujące zagadnienia:

Data Science jako proces
Rola Data Science w firmie, Kompetencje i narzędzia Data Science, Zarządzanie procesem analityki danych, Wnioskowanie na podstawie danych, Rodzaje problemów analitycznych i modeli, Projektowanie eksperymentu i prezentacja wyników.

Wyzwania w pracy Data Scientist w organizacji
Błędy poznawcze w prezentacji i wizualizacji danych, Błędy poznawcze w zbieraniu i przygotowywaniu danych, Walka z manipulacją, Pozyskiwanie danych w organizacji, Ograniczenia prawne i formalne w pracy z danymi, Moralne aspekty pracy z danymi

Rekomendacja i personalizacja w serwisach internetowych
Systemy rekomendacji/personalizacji danych. Learning to rank - jak nauczyć wyszukiwarkę rankingowania? Jak zbierać informacje o użytkownikach serwisów internetowych?

Analityka Big Data w banku
Rodzaje danych gromadzonych przez banki. Źródła danych zewnętrznych, Architektura klastra Hadoop na przykładzie mBanku, Przykłady analiz z wykorzystaniem metod Big Data (Hive/Spark), Techniki oraz przykłady wizualizacji danych (R Shiny), Rys regulacyjny dotyczący przechowywania i przetwarzania danych dotyczących klientów oraz potencjalnych klientów.

Wykorzystanie zasobów informacji niestrukturalnej w dużych przedsiębiorstwach
Architektura informacji, Architektura systemów wyszukiwania Przetwarzania języka naturalnego, Podstawowe zastosowania biznesowe w przedsiębiorstwach: zarządzanie wiedzą, portal dostępu do informacji, aplikacje specjalizowane oparte na sinikach wyszukiwania.

Oprogramowanie SAS Enterprise Miner stanowi uniwersalny framework, który pozwala na łatwe wykorzystanie szeregu metod analitycznych przy budowie liniowych i nieliniowych modeli predykcyjnych oraz technik segmentacyjnych. Tworzone modele wspierają proces podejmowania decyzji z następujących obszarów: prawdopodobieństwo zajścia zdarzenia, oczekiwana wartość zdarzenia oraz szacowany czas wystąpienia zdarzenia.

Nauczysz się:

Supervised learning: Rodzaje modelowania ze względu na charakter zmiennej objaśnianej, Metody selekcji zmiennych, Techniki imputacji braków danych, Transformacje zmiennych, Drzewa decyzyjne, Regresja, Podstawy sieci neuronowych, Klasyfikacja modeli, Proces scoringu, Wykorzystanie zewnętrznych modeli, np.: R. Unsupervised learning: Techniki klasteryzacji danych, Profilowanie segmentów

Wykorzystasz:

SAS® Enterprise Miner

Przedmiot obejmuje przegląd gałęzi sztucznej inteligencji i oferowanych przez nie metod przetwarzania dużych zbiorów danych. Działanie poszczególnych klas metod jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Algorytmów ewolucyjnych i genetycznych, metod przeszukiwania przestrzeni stanów, działania sieci neuronowych i konstrukcji systemów eksperckich.

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje przegląd metod eksploracji danych. W szczególności są tu prezentowane metody odnajdywania zbiorów częstych i reguł asocjacyjnych, metody klasyfikacji, znajdowania wzorców sekwencyjnych i grupowania (clustering). Funkcjonowanie poszczególnych klas prezentowanych metod eksploracji jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Odkrywanie zbiorów częstych przy użyciu algorytmu Apriori, Wyznaczanie reguł asocjacyjnych na podstawie zbiorów częstych, Klasyfikacja z użyciem drzew decyzyjnych, Klasyfikacja z użyciem naiwnego klasyfikatora Bayesowskiego, Klasyfikacja z użyciem wzorców kontrastowych, Ocena jakości klasyfikatora, Wzorce sekwencyjne, Grupowanie gęstościowe, Grupowanie hierarchiczne

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje przegląd metod automatycznego przetwarzania danych tekstowych. W szczególności są tu prezentowane zagadnienia z zakresu parsowania i struktury języka, analizy statystycznej, analizy gramatycznej, kategoryzacji i grupowania dokumentów, automatycznego tłumaczenia, budowania ontologii, analizy dokumentów hipertekstowych.

Nauczysz się:

Parsing i struktura języka(text corpora, słowa i zdania, tokenization, fleksja), Analiza statystyczna (modele dokumentów, modele języka, collocations, word sense disambiguation), Analiza gramatyczna (POS tagging, parsing, PCFG), Wyszukiwanie informacji, Kategoryzacja i grupowanie dokumentów, Streszczanie dokumentów, Tłumaczenie automatyczne, Wykrywanie słów kluczowych, Budowanie ontologii, Analiza dokumentów hipertekstowych (page rank, SEO), Profilowanie użytkowników, analiza sieci społecznościowych, Analiza zachowania użytkowników (sentiment analysis)

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje zagadnienia dotyczące najlepszych praktyk wizualizacji danych. W trakcie zajęć omawianych jest 8 typów wizualizacji danych: (i) porównanie części do całości, (ii) analiza w czasie, (iii) analiza relacji, (iv) analiza korelacji, (v) analiza porównawcza, (vi) dystrybuanta, (vii) analiza hierarchii, (viii) analiza przepływu. Rozważane są najczęściej popełniane błędy w wizualizacji danych oraz aktualne trendy w Business Intelligence, między innymi Self-Service Analytics. Podczas zajęć duży nacisk jest kładziony na omówienie najważniejszych koncepcji psychologicznych mających zastosowanie w wizualizacji danych, takich jak: psychologia poznawcza, psychologia Gestalt, prawo Hicksa, psychologia koloru, dopasowanie wzorców, rozpoznawanie twarzy, wpływ społeczny, progresywne ujawnianie, hierarchia potrzeb Maslowa, brzytwa Ockhama, efekt von Restorff. W trakcie zajęć są wyjaśniane pojęcia sygnałów biznesowych (Outliers) oraz koncepcja opowiadania historii przy użyciu danych (Storytelling).

Nauczysz się:

Jak w prosty i zrozumiały sposób pokazać to, co ważne i ukryć to, co nieistotne; Budować dashboard tak, aby użytkownik szybko dotarł do najważniejszych informacji; Dobierać odpowiednie wizualizacje w zależności od typu analizy w oparciu o zasady User Experience Design, Koncepcji wizualizacji danych.

Wykorzystasz:

Tableau®

Wykładowcy

Piotr Adamczyk

Piotr Adamczyk to doświadczony analityk danych, pasjonat wizualizacji i prezentacji danych oraz oprogramowania Tableau. Absolwent ekonometrii na Uniwersytecie Ekonomicznym we Wrocławiu. Doświadczenie biznesowe zdobywał w Bosch Group oraz Danone Waters pracując jako analityk w obszarze SCH, Sprzedaży i Trade Marketingu oraz jako Demand Planner. Obecnie wspiera organizacje projektując procesy analityczne oraz budując dashboardy wizualizacyjne. Certyfikowany konsultant oraz trener Tableau.

Marzena Kryszkiewicz

Marzena Kryszkiewicz uzyskała tytuł naukowy profesora nauk technicznych nadany przez Prezydenta Rzeczypospolitej Polskiej w 2013 roku. W Instytucie Informatyki w Zakładzie Systemów Informacyjnych pracuje od 1988 roku, od 2009 roku jest Kierownikiem Zakładu. Prof. Kryszkiewicz jest też kierownikiem specjalności "Inżynieria Systemów Informatycznych" na kierunku studiów Informatyka. Jest autorką lub współautorką 92 publikacji naukowych (h-index: 21), z czego większość została opublikowana w zagranicznych lub międzynarodowych czasopismach i materiałach konferencyjnych. Prof. Kryszkiewicz była promotorem 6 rozpraw doktorskich i 32 prac dyplomowych magisterskich i inżynierskich. Prof. Kryszkiewicz kierowała projektami badawczymi z zakresu eksploracji danych i tworzenia semantycznej bazy wiedzy dla potrzeb nauki.

Łukasz Kobyliński

Chief Science Officer w Sages oraz adiunkt w Instytucie Podstaw Informatyki PAN, gdzie prowadzi projekty w Zespole Inżynierii Lingwistycznej. Od wielu lat zajmuje się analizą danych i uczeniem maszynowym, początkowo w odniesieniu do obrazów - w roku 2012 obronił doktorat na Politechnice Warszawskiej z tego zakresu - a obecnie w zastosowaniu do przetwarzania języka naturalnego. Szczególnie zainteresowany lingwistyką korpusową, morfologią i semantyką tekstu, a także efektywnym przetwarzaniem dużych zbiorów danych.

Paweł Wróblewski

Absolwent Wydziału Matematyki i Nauk informacyjnych Politechniki Warszawskiej. Od początku swojej kariery zawodowej zajmuje się systemami wyszukiwania i analizy danych. Jest zafascynowany najnowszymi osiągnięciami z zakresu przeszukiwania informacji i ewolucji technologii internetowych. Swoje zafascynowanie stara się przełożyć na budowanie rozwiązań pozwalających na łączne wyszukiwanie i analizę danych tekstowych i strukturalnych, charakteryzujących się wysoką wydajnością i innowacyjnością. Stara się promować nowe ujęcie systemów klasy Business Intelligence czy tzw. Big Data, włączając w nie dane tekstowe i analizy lingwistyczne. Od 2012 roku odpowiada za polski oddział szwedzkiej firmy Findwise, wcześniej pracował dla Asseco Poland, ABG, Acsys.

Anna Wróblewska

Anna Wróblewska otrzymała tytuł doktora nauk technicznych w zakresie informatyki w czerwcu 2008 roku na Wydziale Elektroniki i Technik Informacyjnych Politechniki. Pracowała na stanowisku adiunkta naukowego w Zakładzie Systemów Informacyjnych Instytutu Informatyki Politechniki Warszawskiej. Prowadziła także projekty studenckie, prace magisterskie i inżynierskie, wykłady z zakresu eksploracji danych tekstowych. Posiada kilkuletnie doświadczenie w projektowaniu inteligentnych systemów analizy i opisu semantycznego danych nabyte w środowisku komercyjnym i naukowym. Obecnie pracuje na stanowisku ekspert analizy danych (Data Scientist) w firmie Allegro – największym portalu e-commerce w Europie Wschodniej, gdzie zajmuje się metodami analizy danych także tekstowych i obrazowych. Ponadto jest autorką ponad 35 publikacji w polskich i międzynarodowych czasopismach i materiałach. Jej zainteresowania naukowe koncentrują się wokół uczenia maszynowego w praktycznych zastosowaniach, w tym przede wszystkim semantycznego rozumienia danych: tekstu i obrazu, wyszukiwania semantycznego, eksploracji tekstu, uczenia i budowania ontologii.

Paweł Wawrzyński

Paweł Wawrzyński jest adiunktem w Instytucie Automatyki i Informatyki Stosowanej Politechniki Warszawskiej. Posiada stopień doktora nauk technicznych w dziedzinie informatyki nadany przez Wydział Elektroniki i Technik Informacyjnych PW. Ukończył także studia magisterskie w zakresie makroekonomii i ekonometrii na Wydziale Nauk Ekonomicznych Uniwersytetu Warszawskiego. Jest autorem ponad trzydziestu publikacji naukowych w czasopismach i na konferencjach międzynarodowych, trzech patentów i czterech książek. Doświadczenie biznesowe dra inż. Wawrzyńskiego obejmuje członkostwo w zarządach spółek z sektora deweloperskiego oraz elektronicznego.

Piotr Kołaczkowski

Piotr Kołaczkowski jest absolwentem Politechniki Warszawskiej. W 2011 roku obronił doktorat dotyczący automatycznego strojenia systemów baz danych. Obecnie przewodzi zespołowi programistóww w DataStax, gdzie rozwija narzędzia analizy danych w systemie DataStax Enterprise zbudowanym w oparciu o Apache Cassandra. Jest też inicjatorem i jednym z głównych twórców otwartoźródłowego oprogramowania łączącego Apache Cassandra z Apache Spark (https://github.com/datastax/spark-cassandra-connector).

Paweł Grabowski

Paweł Grabowski jest założycielem i partnerem zarządzającym w ReeWise – The Analytics Company. W ReeWise jest odpowiedzialny za sektor instytucji finansowych i obszar Big Data. Przed ReeWise, Paweł pracował przez ponad 10 lat dla dużych międzynarodowych dostawców technologii i usług, gdzie był odpowiedzialny za globalne i wielokulturowe projekty oraz PMO. Absolwent Politechniki Warszawskiej i Szkoły Głównej Handlowej. Entuzjasta przedsiębiorczości, zwolennik ciągłych zmian i nowatorskich modeli biznesowych.

Przemysław Grzegorzewski

Przemysław Grzegorzewski jest profesorem nadzwyczajnym na Wydziale Matematyki i Nauk Informacyjnych Politechniki Warszawskiej oraz w Instytucie Badań Systemowych Polskiej Akademii Nauk. Jest opiekujem specjalności "Statystka Matematyczna i Analiza Danych" na kierunku studiów Matematyka na Wydziale MiNI. Główne kierunki jego zainteresowań naukowych obejmują statystykę matematycznej, analizę danych nieprecyzyjnych, teorię zbiorów rozmytych, statystyczne metody wspomagania decyzji, statystyczną kontrolę jakości, data mining i soft computing. Profesor Grzegorzewski jest inicjatorem i członkiem Executive Board międzynarodowej konferencji "Soft Methods in Probability and Statistics (SMPS)". Jest autorem lub współautorem przeszło 160 publikacji naukowych, z których większość została opublikowana w zagranicznych lub międzynarodowych czasopismach i materiałach konferencyjnych.

Mariusz Chudy

Doświadczony kierownik projektów, programów i portfeli projektów o charakterze międzynarodowym i wielodziedzinowym. Posiada wieloletnie doświadczenie w branży IT. Absolwent Politechniki Warszawskiej (kierunek Telekomunikacja/Informatyka) i Uniwersytetu Warszawskiego (Zarządzanie). Ekspert w dziedzinie zarządzania projektami zgodnie z metodyką PMBOK (PMI). Od 10 lat związany z projektami ICT w sektorze finansowym i telekomunikacyjnym. Wdrażał projekty IT zarówno po stronie dostawcy, jak i klienta. Posiada szerokie doświadczenie i wiedzę z zakresu zarządzania zmianą, projektami, programami i portfelami projektów, a także funkcjonowania i optymalizacji PMO (Project Management Office). Z sukcesem transformował operacje w największych firmach sektora telekomunikacyjnego i finansowego. Obecnie pełni rolę Dyrektora Departamentu w firmie Orange Polska, gdzie zarządza portfelem ponad 150 projektów ICT. Partner, trener i doradca w zakresie zarządzania projektami i transformacji organizacji projektowych. Zawodowo interesuje się zarządzaniem opartym na faktach (evidence based management) oraz wdrażaniem efektywnej organizacji PMO.

Bartłomiej Twardowski

Doktorant na Politechnice Warszawskiej badający systemy rekomendacji oraz metody personalizacji danych. Na co dzień pracujący również w Grupie Allegro - największym portalu e-marketplace w Polsce, gdzie zajmuje się analizą danych, systemami rekomendacji oraz wykorzystaniu uczenia maszynowego do rozwiązywania złożonych problemów. Z racji skali zagadnień - ekosystem Big Data stał się jego codziennym podwórkiem zmagań. Zafascynowany trudnymi projektami wykorzystującymi metody machine learning oraz data mining do praktycznych zastosowań.

Radosław Łasocha

Radosław Łasocha to analityk z 14-letnim doświadczeniem biznesowym w sektorach takich jak produkcja, logistyka, obsługa klienta, wsparcie sprzedaży i marketing. Od 5 lat zafascynowany analizą danych w Tableau Software. Praca z danymi jest dla niego pasją, oraz - jak przyznaje - z każdym dniem jest bardziej ekscytująca. Mocne doświadczenie zawodowe w różnych strukturach biznesowych firm takich jak: BMW Group, DuPont, Axalta, i obecnie Cisco pozwala mu spojrzeć na problemy dużych i małych organizacji z różnych stron. Dzięki temu znajduje On najlepsze rozwiązania i tworzy nowe standardy w BI. Od 2 lat główny Developer Tableau w zespole Cisco EMEAR Analytics & Insights Team, a od 2016 roku Program Manager zarządzający pierwszą edycją Cisco Bridge - programu który ma zmienić sposób postrzegania stażu przez najbardziej utalentowanych studentów i absolwentów z różnych dziedzin.

Piotr Reszka

CEO Astrafox, absolwent Inżynierii Oprogramowania PW. Ekspert Visual Data Science, praktyk z bogatym doświadczeniem wdrożeń BI/ERP w Polsce i USA. Na co dzień Piotr i jego zespół pomagają Klientom we wszystkich aspektach pracy z narzędziami Business Intelligence: od projektowania KPI, przygotowywania danych, poprzez szkolenia, warsztaty, aż po zaawansowane programowanie i integrację. “Jak większość analityków poszukiwałem rozwiązań pozwalających skupić się na potrzebach biznesowych a nie technologii. Wtedy odkryłem moc analizy i wizualizacji w narzędziach takich jak Tableau dzięki którym praca z danymi jest przyjemniejsza i pozwala na szybkie wyciąganie wniosków oraz podejmowanie właściwych decyzji zmieniających biznes. Moją pasją jest robotyka i astrofizyka ale zasypiając, liczę owce używając Count Distinct…”

Więcej informacji:
http://astrafox.pl/kultura/
http://astrafox.pl/wdrozenia-business-intelligence/
http://blog.tableau-software.pl/

Aneta Rudniak

Absolwentka wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej, kierunku Matematyka. Od ponad 10 lat związana jest z SAS Institute Polska. Obecnie jako Senior Industry Consultant w jednostce Customer Intelligence odpowiada m.in. za wdrożenia CRM analitycznego, począwszy od analizy wymagań biznesowych, przez budowę systemów analitycznych po dostarczenie modeli data mining oraz za zagadnienia związane z CRM operacyjnym, w tym za optymalizację kampanii marketingowych.

Kamil Żbikowski

Obecnie Senior IT Manager będący liderem zespołu data science w mBanku. W przeszłości Software Architect współtworzący algorytmiczny fundusz inwestycyjny wykorzystujący metody sztucznej inteligencji oraz data mining. IT Manger w Turbine Analytics, firmie specjalizującej się w dostarczaniu rozwiązań wspierających zarządzanie funduszami oraz ryzykiem dla towarzystw funduszy inwestycyjnych. Współtwórca oraz CTO Bazaar Blockchain Technoglogies Ltd., firmy zajmującej się dostarczaniem w zautomatyzowany sposób płynności dla giełd Bitcoin. Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej na kierunku Informatyka. Równolegle ukończył studia na kierunku Finanse i Rachunkowość SGH. W ramach swoich publikacji posiada pozycje w najlepszych światowych journalach z zakresu sztucznej inteligencji. Jest posiadaczem najwyższego certyfikatu Oracle – Oracle Certified Master, Java EE Enterprise Architect. Zwolennik i propagator Agile.

Piotr Gawrysiak

Piotr Gawrysiak jest profesorem nadzwyczajnym w Instytucie Informatyki Politechniki Warszawskiej oraz udziałowcem w spółce Polidea, tworzącej oprogramowanie dedykowane dla urządzeń mobilnych. Piotr Gawrysiak posiada stopień doktora informatyki nadany przez Wydział Elektroniki i Technik Informacyjnych Politechniki Warszawskiej, oraz dwa stopnie doktora habilitowanego - w dziedzinie nauk humanistycznych (nadany przez Wydział Historyczny Uniwersytetu Warszawskiego), oraz w dziedzinie nauk technicznych (nadany przez Wydział Elektroniki i Technik Informacyjnych PW. Ukończył także studia magisterskie w zakresie zarządzania gospodarczego na Wydziale Zarządzania Uniwersytetu Warszawskiego. Jego zainteresowania naukowe dotyczą systemów zarządzania bazami danych, eksploracji danych ze szczególnym uwzględnieniem dokumentów tekstowych i języka naturalnego oraz sieci Internet, mobilnych technologii IT, odkrywania i zarządzania wiedzą oraz sztucznej inteligencji. Interesują go także związki techniki z procesami społecznymi i kulturowymi. Był promotorem ponad 20 prac magisterskich i jest autorem lub współautorem ponad 60 publikacji naukowych, w tym czterech książek, z czego większość została opublikowana w zagranicznych lub międzynarodowych czasopismach i materiałach konferencyjnych. W 2012 roku brał udział w programie Top500 Ministerstwa Nauki i Szkolnictwa Wyższego odbywając staż na Uniwersytecie Stanforda. Prof. Gawrysiak kierował licznymi projektami naukowo-badawczymi i aplikacyjnymi dla przemysłu (m.in. Procter & Gamble, T-Mobile, Samsung, France Telecom) i organizacji międzynarodowych (ONZ, IFAD, UNEP), zarówno jako przedstawiciel uczelni jak też i niezależny konsultant. Był ewaluatorem projektów w ramach programów ramowych Komisji Europejskiej. Obecnie pełni także funkcję przedstawiciela RP w komitecie TC14 IFIP.

Rada Programowa

Robert Bembenik

Kierownik Studium

Krzysztof Dąbrowski

CIO/CTO, mBank S.A.

Piotr Gawrysiak

Profesor Nadzwyczajny, Instytut Informatyki PW

Łukasz Kobyliński

Chief Science Officer, Board Member, Sages

Jakub Koperwas

JEE Consultant & Partner, Sages

Radosław Lipiński

Team Manager, Citibank

Mieczysław Muraszkiewicz

Dyrektor ds. Naukowych, Instytut Informatyki PW

Jakub Nowacki

Senior Software Engineer, CodiLime

Andrzej Olękiewicz

Digital R&D Director, TNS Polska SA

Robert Stanikowski

Partner and Managing Director, CEE Technology Advantage Practice Leader, The Boston Consulting Group

Paweł Wróblewski

Regional Manager, Findwise

Rekrutacja i opłaty na semestr zimowy 2017

W studiach podyplomowych mogą uczestniczyć absolwenci studiów wyższych 1. i 2. stopnia. Przyjęcia realizowane są według kolejności zgłoszeń, do wyczerpania limitu miejsc.

Rekrutacja jest przeprowadzana na podstawie:

Wzór umowy zawieranej przez kandydatów na studia z Politechniką Warszawską (do zapoznania) dostępny jest tutaj.

Termin składania dokumentów: 24 maja 2017 - 25 sierpnia 2017 BRAK MIEJSC

Początek zajęć: październik 2017

Dokumenty należy składać w sekretariacie Instytutu Informatyki, pok. 204, Wydział Elektroniki i Technik Informacyjnych, 00-665 Warszawa, Nowowiejska 15/19, w godzinach 9:00 – 15:30.

UWAGA 1: Faktury będą wystawiane automatycznie jeśli zgłoszą Państwo taką potrzebę we wniosku. W celu uzyskania szczegółowych wyjaśnień prosimy kontaktować się z księgowością Instytutu Informatyki, tel. 22 234 7664.

UWAGA 2: Z tytułu opłat za studia podyplomowe faktury mogą być wystawione wyłącznie na nabywcę usługi edukacyjnej czyli osobę („Słuchacza” studiów podyplomowych), która zawiera z Uczelnią umowę o warunkach odpłatności za studia podyplomowe w Politechnice Warszawskiej stanowiącą zał. nr 7 do uchwały nr 332/XLVIII/2015 Senatu PW z dnia 23.09.2015 r. W przypadku, gdy opłata za studia podyplomowe wnoszona jest przez firmę, istnieje możliwość, aby na fakturze firma ta została wskazana jako płatnik, a uczestnik studiów podyplomowych jako nabywca usługi edukacyjnej. W takiej sytuacji niezbędne jest przekazanie przez firmę stosownego pisma zawierającego m.in. dokładne dane potrzebne do wystawienia faktury.

  • Opłaty

    10 000 PLN / rok
  • I rata - 6 000 PLN
    opłatę należy wnieść do 25 sierpnia 2017
  • II rata - 4 000 PLN
    opłatę należy wnieść do 16 lutego 2018
  • Limit miejsc: 36 osób
  • Minimalna liczba osób: 18
  • Zapisz się

Dla słuchaczy

Terminarz zjazdów, edycja 2017L
Semestr I 18-19 mar 25-26 mar 8-9 kwi 13-14 maj 27-28 maj 10-11 cze 9-10 wrz 23-24 wrz
Semestr II 14-15 paź 28-29 paź 18-19 lis 2-3 gru 16-17 gru 20-21 sty

Plan zajęć, semestr I 2016/2017L: grupa 1, grupa 2, grupa 3

Terminarz zjazdów, edycja 2017Z
Semestr I 7-8 paź 21-22 paź 4-5 lis 25-26 lis 9-10 gru 13-14 sty 27-28 sty
Semestr II 3-4 mar 17-18 mar 7-8 kwi 21-22 kwi 5-6 maj 19-20 maj 9-10 cze 23-24 cze

Lokalizacja sal: wejście przez podwórze, wejście przez piwnicę

Egzamin końcowy i praca końcowa

Ukończenie studiów następuje po zdaniu egzaminu końcowego. Osoby preferujące przygotowanie pracy końcowej powinny uwzględnić poniższe wskazówki:

Sesja letnia:
- termin złożenia prac końcowych: 16 czerwca
- termin obrony pracy: 24 - 25 czerwca

Sesja jesienna:
- termin złożenia prac końcowych: 15 września
- termin obrony pracy: 30 września

  • Wydział Elektroniki i Technik Informacyjnych Politechniki Warszawskiej

    Instytut Informatyki
    ul. Nowowiejska 15/19, 00-665 Warszawa

  • Sekretariat Studiów Podyplomowych
    pok. 204, II piętro

    Bożenna Skalska

    tel.: 22 234 7432
    fax: 22 234 6091
    e-mail: B.Skalska@ii.pw.edu.pl

  • Kierownik
    pok. 302, III piętro

    dr inż. Robert Bembenik

    tel.: 22 234 7715
    e-mail: R.Bembenik@ii.pw.edu.pl

Partnerzy