Studia podyplomowe

Data Science – algorytmy, narzędzia i aplikacje dla problemów typu Big Data

BRAK MIEJSC
Kolejna edycja studiów rozpoczyna się w październiku 2019. Wypełnij formularz, jeśli jesteś nią zainteresowany.-->

O studiach

Dane stają się coraz tańsze i wszechobecne. IBM szacuje, że 90 procent istniejących dziś na świecie danych zostało wytworzonych w ostatnich 2 latach. Dane te pochodzą z logów serwerów, urządzeń mobilnych, czujników, instrumentów, transakcji. Przetwarzanie i analiza danych przyczynia się do znajdowania wzorców i regularności w danych, które z kolei pozwalają na poprawę kondycji człowieka, wytworzenie komercyjnej i społecznej wartości.

"W ostatnich latach pojawił się nowy zawód, „badacz danych” (ang. data scientist), który łączy w sobie umiejętności statystyka, programisty, projektanta oprogramowania i gawędziarza. Zamiast wpatrywać się w mikroskop, aby odkryć tajemnice wszechświata, badacz danych, aby dokonać odkrycia, z uwagą przygląda się bazom danych."

Mayer-Schonberger V., Cukier K.: Big Data: A Revolution That Will Transform How We Live, Work, and Think, Eamon Dolan/Mariner Books 2014

Na rynku pracy istnieje znaczne, ciągle rosnące zapotrzebowanie na rozumiejących dane profesjonalistów w instytucjach biznesowych, publicznych, organizacjach non-profit. Podaż profesjonalistów mogących pracować efektywnie z dużymi wolumenami danych jest ograniczona i znajduje odzwierciedlenie w rosnących pensjach inżynierów danych, badaczy danych, statystyków i analityków danych. Portal Forbes.pl podaje szacunkowe dane nt. zarobków badaczy danych w USA, które wahają się od 50 tys. USD do 150 tys. USD, zależnie od doświadczenia.

Według Harvard Business Review Data Scientist to najbardziej seksowny zawód XXI wieku.

Cel studiów

Celem studiów podyplomowych "Data Science – algorytmy, narzędzia i aplikacje klasy Big Data" jest przekazanie słuchaczom praktycznych umiejętności z zakresu przetwarzania i analizy dużych danych i zapoznanie ich z rolą danych w procesach podejmowania decyzji oraz wykorzystaniem danych jako cennych aktywów strategicznych.

Dla kogo są przeznaczone nasze studia?

Studia są przeznaczone dla osób chcących wykorzystywać wiedzę zawartą w dużych wolumenach danych w celu wspierania podejmowania decyzji, w szczególności dla analityków i decydentów z obszaru finansów, bankowości, ubezpieczeń, produkcji, marketingu, handlu, usług, opieki zdrowotnej, branży energetycznej, nauki i innych obszarów działalności. Od uczestników wymagana jest podstawowa umiejętność programowania w dowolnym języku oraz podstawowa znajomość zagadnień związanych z bazami danych i językiem SQL.

Dlaczego warto studiować Data Science w Instytucie Informatyki PW?

Zakład Systemów Informacyjnych Instytutu Informatyki prowadzi projekty rozwojowo-badawcze dotyczące m.in. praktyki i teorii systemów informacyjnych obejmujących zagadnienia eksploracji danych, implementacji systemów eksploracji tekstu, budowy ontologii, wyszukiwania informacji, sztucznej inteligencji.

Zobacz jaki obszar zagadnień obejmuje Data Science

Program studiów Data Science

Studia obejmują 197 godzin zajęć, w tym 116 godzin zajęć praktycznych w trakcie zjazdów weekendowych w ciągu 2 semestrów. Ukończenie studiów następuje na podstawie egzaminu końcowego. Szczegółowy terminarz zajęć znajduje się tutaj.

Celem zajęć jest przybliżenie podstaw wnioskowania statystycznego, a w szczególności budowy modelu statystycznego, estymacji punktowej i przedziałowej, teorii weryfikacji hipotez oraz metod badania zależności między cechami.

Nauczysz się:

Metody i narzędzia eksploracji danych. Podstawowe rozkłady prawdopodobieństwa. Metody konstrukcji estymatorów punktowych i badania ich własności. Przedziały ufności. Podstawowe testy parametryczne. Testowanie zgodności i niezależności cech. Podstawy analizy regresji.

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje wprowadzenie do środowiska programistycznego R oraz narzędzia niezbędne do pracy (RStudio), zapoznanie z podstawowymi strukturami i typami danych, podstawy programowania w języku R, podstawowe zagadnienia związane z analizą danych ilościowych i jakościowych, wizualizację danych.

Nauczysz się:

Podstawowe typy i struktury danych, Elementy programowania w R (operacje zwektoryzowane jako główna cecha tego języka, instrukcje sterujące przepływem kodu, tworzenie własnych skryptów i funkcji), Podstawy analizy danych, Graficzna prezentacja wyników, Wybrane zaawansowane zagadnienia związane z programowaniem w R

Wykorzystasz:

Język R, RStudio

W ramach przedmiotu omawiane są następujące zagadnienia: wprowadzenie do BigData, skalowalne systemy baz danych na przykładzie Apache Cassandra, składowanie plików na przykładzie Hadoop File System, analiza danych przy użyciu Hadoop Map-Reduce i Apache Spark, zarządzane zasobami, harmonogramowanie i zarządzanie danymi, bezpieczeństwo, integracja.

Nauczysz się:

Ekosystem Hadoopa, HDFS, Formaty plików: text,sequence files, RC, ORC, Parquet, Key-value stores: HBase, Accumulo, Cassandra, In-memory stores: Tachyon, Ignite, Paradygmat MapReduce, Hive, Spark, Kafka

Wykorzystasz:

Hadoop, MapReduce, Cassandra, HBase, Spark, Hive, Kafka

Prezentacje w ramach przedmiotu obejmują przegląd komercyjnego wykorzystania wybranych metod z obszaru Data Science i Big Data, w szczególności następujące zagadnienia:

Data Science jako proces
Rola Data Science w firmie, Kompetencje i narzędzia Data Science, Zarządzanie procesem analityki danych, Wnioskowanie na podstawie danych, Rodzaje problemów analitycznych i modeli, Projektowanie eksperymentu i prezentacja wyników.

Wyzwania w pracy Data Scientist w organizacji
Błędy poznawcze w prezentacji i wizualizacji danych, Błędy poznawcze w zbieraniu i przygotowywaniu danych, Walka z manipulacją, Pozyskiwanie danych w organizacji, Ograniczenia prawne i formalne w pracy z danymi, Moralne aspekty pracy z danymi

Rekomendacja i personalizacja w serwisach internetowych
Systemy rekomendacji/personalizacji danych. Learning to rank - jak nauczyć wyszukiwarkę rankingowania? Jak zbierać informacje o użytkownikach serwisów internetowych?

Analityka Big Data w banku
Rodzaje danych gromadzonych przez banki. Źródła danych zewnętrznych, Architektura klastra Hadoop na przykładzie mBanku, Przykłady analiz z wykorzystaniem metod Big Data (Hive/Spark), Techniki oraz przykłady wizualizacji danych (R Shiny), Rys regulacyjny dotyczący przechowywania i przetwarzania danych dotyczących klientów oraz potencjalnych klientów.

Wykorzystanie zasobów informacji niestrukturalnej w dużych przedsiębiorstwach
Architektura informacji, Architektura systemów wyszukiwania Przetwarzania języka naturalnego, Podstawowe zastosowania biznesowe w przedsiębiorstwach: zarządzanie wiedzą, portal dostępu do informacji, aplikacje specjalizowane oparte na sinikach wyszukiwania.

Oprogramowanie SAS Enterprise Miner stanowi uniwersalny framework, który pozwala na łatwe wykorzystanie szeregu metod analitycznych przy budowie liniowych i nieliniowych modeli predykcyjnych oraz technik segmentacyjnych. Tworzone modele wspierają proces podejmowania decyzji z następujących obszarów: prawdopodobieństwo zajścia zdarzenia, oczekiwana wartość zdarzenia oraz szacowany czas wystąpienia zdarzenia.

Nauczysz się:

Supervised learning: Rodzaje modelowania ze względu na charakter zmiennej objaśnianej, Metody selekcji zmiennych, Techniki imputacji braków danych, Transformacje zmiennych, Drzewa decyzyjne, Regresja, Podstawy sieci neuronowych, Klasyfikacja modeli, Proces scoringu, Wykorzystanie zewnętrznych modeli, np.: R. Unsupervised learning: Techniki klasteryzacji danych, Profilowanie segmentów

Wykorzystasz:

SAS® Enterprise Miner

Przedmiot obejmuje przegląd gałęzi sztucznej inteligencji i oferowanych przez nie metod przetwarzania dużych zbiorów danych. Działanie poszczególnych klas metod jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Algorytmów ewolucyjnych i genetycznych, metod przeszukiwania przestrzeni stanów, działania sieci neuronowych i konstrukcji systemów eksperckich.

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje przegląd metod eksploracji danych. W szczególności są tu prezentowane metody odnajdywania zbiorów częstych i reguł asocjacyjnych, metody klasyfikacji, znajdowania wzorców sekwencyjnych i grupowania (clustering). Funkcjonowanie poszczególnych klas prezentowanych metod eksploracji jest badane w trakcie zajęć laboratoryjnych.

Nauczysz się:

Odkrywanie zbiorów częstych przy użyciu algorytmu Apriori, Wyznaczanie reguł asocjacyjnych na podstawie zbiorów częstych, Klasyfikacja z użyciem drzew decyzyjnych, Klasyfikacja z użyciem naiwnego klasyfikatora Bayesowskiego, Klasyfikacja z użyciem wzorców kontrastowych, Ocena jakości klasyfikatora, Wzorce sekwencyjne, Grupowanie gęstościowe, Grupowanie hierarchiczne

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje przegląd metod automatycznego przetwarzania danych tekstowych. W szczególności są tu prezentowane zagadnienia z zakresu parsowania i struktury języka, analizy statystycznej, analizy gramatycznej, kategoryzacji i grupowania dokumentów, automatycznego tłumaczenia, budowania ontologii, analizy dokumentów hipertekstowych.

Nauczysz się:

Parsing i struktura języka(text corpora, słowa i zdania, tokenization, fleksja), Analiza statystyczna (modele dokumentów, modele języka, collocations, word sense disambiguation), Analiza gramatyczna (POS tagging, parsing, PCFG), Wyszukiwanie informacji, Kategoryzacja i grupowanie dokumentów, Streszczanie dokumentów, Tłumaczenie automatyczne, Wykrywanie słów kluczowych, Budowanie ontologii, Analiza dokumentów hipertekstowych (page rank, SEO), Profilowanie użytkowników, analiza sieci społecznościowych, Analiza zachowania użytkowników (sentiment analysis)

Wykorzystasz:

Język R, RStudio

Przedmiot obejmuje zagadnienia dotyczące najlepszych praktyk wizualizacji danych. W trakcie zajęć omawianych jest 8 typów wizualizacji danych: (i) porównanie części do całości, (ii) analiza w czasie, (iii) analiza relacji, (iv) analiza korelacji, (v) analiza porównawcza, (vi) dystrybuanta, (vii) analiza hierarchii, (viii) analiza przepływu. Rozważane są najczęściej popełniane błędy w wizualizacji danych oraz aktualne trendy w Business Intelligence, między innymi Self-Service Analytics. Podczas zajęć duży nacisk jest kładziony na omówienie najważniejszych koncepcji psychologicznych mających zastosowanie w wizualizacji danych, takich jak: psychologia poznawcza, psychologia Gestalt, prawo Hicksa, psychologia koloru, dopasowanie wzorców, rozpoznawanie twarzy, wpływ społeczny, progresywne ujawnianie, hierarchia potrzeb Maslowa, brzytwa Ockhama, efekt von Restorff. W trakcie zajęć są wyjaśniane pojęcia sygnałów biznesowych (Outliers) oraz koncepcja opowiadania historii przy użyciu danych (Storytelling).

Nauczysz się:

Jak w prosty i zrozumiały sposób pokazać to, co ważne i ukryć to, co nieistotne; Budować dashboard tak, aby użytkownik szybko dotarł do najważniejszych informacji; Dobierać odpowiednie wizualizacje w zależności od typu analizy w oparciu o zasady User Experience Design, Koncepcji wizualizacji danych.

Wykorzystasz:

Tableau®

Wykładowcy

Piotr Adamczyk

Piotr Adamczyk to doświadczony analityk danych, pasjonat wizualizacji i prezentacji danych oraz oprogramowania Tableau. Absolwent ekonometrii na Uniwersytecie Ekonomicznym we Wrocławiu. Doświadczenie biznesowe zdobywał w Bosch Group oraz Danone Waters pracując jako analityk w obszarze SCH, Sprzedaży i Trade Marketingu oraz jako Demand Planner. Obecnie wspiera organizacje projektując procesy analityczne oraz budując dashboardy wizualizacyjne. Certyfikowany konsultant oraz trener Tableau.

Marzena Kryszkiewicz

Marzena Kryszkiewicz uzyskała tytuł naukowy profesora nauk technicznych nadany przez Prezydenta Rzeczypospolitej Polskiej w 2013 roku. W Instytucie Informatyki w Zakładzie Systemów Informacyjnych pracuje od 1988 roku, od 2009 roku jest Kierownikiem Zakładu. Prof. Kryszkiewicz jest też kierownikiem specjalności "Inżynieria Systemów Informatycznych" na kierunku studiów Informatyka. Jest autorką lub współautorką 92 publikacji naukowych (h-index: 21), z czego większość została opublikowana w zagranicznych lub międzynarodowych czasopismach i materiałach konferencyjnych. Prof. Kryszkiewicz była promotorem 6 rozpraw doktorskich i 32 prac dyplomowych magisterskich i inżynierskich. Prof. Kryszkiewicz kierowała projektami badawczymi z zakresu eksploracji danych i tworzenia semantycznej bazy wiedzy dla potrzeb nauki.

Paweł Wróblewski

Absolwent Wydziału Matematyki i Nauk informacyjnych Politechniki Warszawskiej. Od początku swojej kariery zawodowej zajmuje się systemami wyszukiwania i analizy danych. Jest zafascynowany najnowszymi osiągnięciami z zakresu przeszukiwania informacji i ewolucji technologii internetowych. Swoje zafascynowanie stara się przełożyć na budowanie rozwiązań pozwalających na łączne wyszukiwanie i analizę danych tekstowych i strukturalnych, charakteryzujących się wysoką wydajnością i innowacyjnością. Stara się promować nowe ujęcie systemów klasy Business Intelligence czy tzw. Big Data, włączając w nie dane tekstowe i analizy lingwistyczne. Od 2012 roku odpowiada za polski oddział szwedzkiej firmy Findwise, wcześniej pracował dla Asseco Poland, ABG, Acsys.

Paweł Wawrzyński

Paweł Wawrzyński jest adiunktem w Instytucie Automatyki i Informatyki Stosowanej Politechniki Warszawskiej. Posiada stopień doktora nauk technicznych w dziedzinie informatyki nadany przez Wydział Elektroniki i Technik Informacyjnych PW. Ukończył także studia magisterskie w zakresie makroekonomii i ekonometrii na Wydziale Nauk Ekonomicznych Uniwersytetu Warszawskiego. Jest autorem ponad trzydziestu publikacji naukowych w czasopismach i na konferencjach międzynarodowych, trzech patentów i czterech książek. Doświadczenie biznesowe dra inż. Wawrzyńskiego obejmuje członkostwo w zarządach spółek z sektora deweloperskiego oraz elektronicznego.

Paweł Grabowski

Paweł Grabowski jest założycielem i partnerem zarządzającym w ReeWise – The Analytics Company. W ReeWise jest odpowiedzialny za sektor instytucji finansowych i obszar Big Data. Przed ReeWise, Paweł pracował przez ponad 10 lat dla dużych międzynarodowych dostawców technologii i usług, gdzie był odpowiedzialny za globalne i wielokulturowe projekty oraz PMO. Absolwent Politechniki Warszawskiej i Szkoły Głównej Handlowej. Entuzjasta przedsiębiorczości, zwolennik ciągłych zmian i nowatorskich modeli biznesowych.

Konrad Jędrzejewski

Konrad Jędrzejewski uzyskał tytuł magistra inżyniera elektroniki i telekomunikacji oraz stopień naukowy doktora nauk technicznych w dziedzinie elektroniki odpowiednio w latach 1995 i 2000 na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej (oba z wyróżnieniem). Stopień naukowy doktora habilitowanego w dyscyplinie elektronika uzyskał w roku 2014. W roku 1998 ukończył studia na Wydziale Nauk Ekonomicznych Uniwersytetu Warszawskiego uzyskując tytuł magistra na kierunku bankowość i finanse (z wyróżnieniem). Od 2000 roku pracuje w Zakładzie Teorii Obwodów i Sygnałów Instytutu Systemów Elektronicznych na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej. W latach 2000-2015 pracował dla NBP kierując projektami i wydziałami. Główne obszary działalności naukowo-badawczej to statystyczne i adaptacyjne przetwarzanie sygnałów i informacji, przetworniki analogowo-cyfrowe (A/C), w szczególności wykorzystujące oryginalne adaptacyjne algorytmy konwersji A/C, adaptacyjne systemy pomiarowe i telekomunikacyjne, przetwarzanie sygnałów radiolokacyjnych. Działalność dydaktyczna obejmuje przedmioty w takich obszarach jak przetwarzanie sygnałów, teoria informacji, wnioskowanie statystyczne. Konrad Jędrzejewski jest autorem ponad 70 publikacji naukowych, m.in. artykułów w czasopismach: Measurement, IEEE Transactions on Instrumentation and Measurement, Metrology and Measurement Systems, a także autorem trzech patentów. Jest członkiem IEEE (senior member), członkiem Polskiego Towarzystwa Informatycznego (PTI), Polskiego Stowarzyszenia Pomiarów, Automatyki i Robotyki (POLSPAR), członkiem IT Service Management Forum (itSMF) Polska, ekspertem Narodowego Centrum Badań i Rozwoju (NCBiR). Jest członkiem Editorial Board i edytorem (Section Editor) czasopisma ACTA IMEKO oraz edytorem (Section Editor) w International Journal of Electronics and Telecommunications (IJET).

Mariusz Chudy

Doświadczony kierownik projektów, programów i portfeli projektów o charakterze międzynarodowym i wielodziedzinowym. Posiada wieloletnie doświadczenie w branży IT. Absolwent Politechniki Warszawskiej (kierunek Telekomunikacja/Informatyka) i Uniwersytetu Warszawskiego (Zarządzanie). Ekspert w dziedzinie zarządzania projektami zgodnie z metodyką PMBOK (PMI). Od 10 lat związany z projektami ICT w sektorze finansowym i telekomunikacyjnym. Wdrażał projekty IT zarówno po stronie dostawcy, jak i klienta. Posiada szerokie doświadczenie i wiedzę z zakresu zarządzania zmianą, projektami, programami i portfelami projektów, a także funkcjonowania i optymalizacji PMO (Project Management Office). Z sukcesem transformował operacje w największych firmach sektora telekomunikacyjnego i finansowego. Obecnie pełni rolę Dyrektora Departamentu w firmie Orange Polska, gdzie zarządza portfelem ponad 150 projektów ICT. Partner, trener i doradca w zakresie zarządzania projektami i transformacji organizacji projektowych. Zawodowo interesuje się zarządzaniem opartym na faktach (evidence based management) oraz wdrażaniem efektywnej organizacji PMO.

Bartłomiej Twardowski

Adiunkt w Zakładzie Sztucznej Inteligencji Politechniki Warszawskiej. Posiada stopień doktora nauk technicznych w dziedzinie informatyki, gdzie w ramach badań pracował nad systemami rekomendacji oraz metodami personalizacji danych. Od wielu lat związany z komercyjnym aplikowaniem systemów uczących, metod eksploracji danych (m.in. Grupa Allegro, Adform). Z racji skali zagadnień - ekosystem Big Data stał się jego codziennym podwórkiem zmagań. Zafascynowany trudnymi projektami wykorzystującymi metody sztucznej inteligencji do praktycznych zastosowań oraz badaniami naukowymi w obszarze ML oraz sztucznych sieci neuronowych.

Radosław Łasocha

Data Visualization Global Manager w Accenture Research współpracującym m.in. z MIT w obszarach związanych z AI, Blockchain, VR, AR, Security, Industry X.0, Living Businesses, Workforce of Future, Digital Decoupling. Odpowiada za strategię i wizję organizacji w zakresie wizualizacji danych oraz zarządzanie CoE. W codziennej pracy pomaga ponad 30 zespołom w 23 lokalizacjach na całym świecie dostarczać strategiczne projekty cytowane w najlepszych czasopismach branżowych (np. The Economist, HBR, Forbes). Jego projekty są prezentowane podczas największych eventów biznesowych na świecie takich jak G20 czy WEF. Posiada 16-letnie doświadczenie zdobyte m.in. w BMW, DuPont, Axalta, Cisco, Accenture. Kluczowe obszary jego działania obejmują: Data Visualization Trends & Standards, Data Visualization Common Mistakes, Signal Detection, Visual Analytics Types, Layout Design, Data Storytelling, Data Psychology, User Experience & User Interface Design, Infographics, Data Art, Gamification, Design Thinking, Collaborative Analytics, Smart Personalization, Auditing in Data Visualization, SCRUM Methodology, Enablement Programs. Do wizualizacji danych najczęściej wykorzystuje Tableau Software oraz Qlik Software. Studiował Psychologię na UW oraz Zarządzanie Informacją na PJATK.

Więcej informacji: www.accenture.com/us-en/innovation-architecture-accenture-research

Piotr Reszka

CEO Astrafox, absolwent Inżynierii Oprogramowania PW. Ekspert Visual Data Science, praktyk z bogatym doświadczeniem wdrożeń BI/ERP w Polsce i USA. Na co dzień Piotr i jego zespół pomagają Klientom we wszystkich aspektach pracy z narzędziami Business Intelligence: od projektowania KPI, przygotowywania danych, poprzez szkolenia, warsztaty, aż po zaawansowane programowanie i integrację. “Jak większość analityków poszukiwałem rozwiązań pozwalających skupić się na potrzebach biznesowych a nie technologii. Wtedy odkryłem moc analizy i wizualizacji w narzędziach takich jak Tableau dzięki którym praca z danymi jest przyjemniejsza i pozwala na szybkie wyciąganie wniosków oraz podejmowanie właściwych decyzji zmieniających biznes. Moją pasją jest robotyka i astrofizyka ale zasypiając, liczę owce używając Count Distinct…”

Więcej informacji:
http://astrafox.pl/kultura/
http://astrafox.pl/wdrozenia-business-intelligence/
http://blog.tableau-software.pl/

Aneta Rudniak

Absolwentka wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej, kierunku Matematyka. Od ponad 10 lat związana jest z SAS Institute Polska. Obecnie jako Senior Industry Consultant w jednostce Customer Intelligence odpowiada m.in. za wdrożenia CRM analitycznego, począwszy od analizy wymagań biznesowych, przez budowę systemów analitycznych po dostarczenie modeli data mining oraz za zagadnienia związane z CRM operacyjnym, w tym za optymalizację kampanii marketingowych.

Kamil Żbikowski

Obecnie Senior IT Manager będący liderem zespołu data science w mBanku. W przeszłości Software Architect współtworzący algorytmiczny fundusz inwestycyjny wykorzystujący metody sztucznej inteligencji oraz data mining. IT Manger w Turbine Analytics, firmie specjalizującej się w dostarczaniu rozwiązań wspierających zarządzanie funduszami oraz ryzykiem dla towarzystw funduszy inwestycyjnych. Współtwórca oraz CTO Bazaar Blockchain Technoglogies Ltd., firmy zajmującej się dostarczaniem w zautomatyzowany sposób płynności dla giełd Bitcoin. Absolwent Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej na kierunku Informatyka. Równolegle ukończył studia na kierunku Finanse i Rachunkowość SGH. W ramach swoich publikacji posiada pozycje w najlepszych światowych journalach z zakresu sztucznej inteligencji. Jest posiadaczem najwyższego certyfikatu Oracle – Oracle Certified Master, Java EE Enterprise Architect. Zwolennik i propagator Agile.

Marek Wiewiórka

Marek Wiewiórka jest doświadczonym architektem oprogramowanie z dużą wiedzą na temat rozwiazań analityki biznesowej i klasyczych systemów relacyjnych baz danych. Wielki fan równoległego i rozproszonego przetwarzania danych oraz oczywiście ekosystemu Hadoop w szczególnosci. Doktorant z bioinformatyki i współzałożyciel grupy badawczej biodatageeks.org zajmującej się zastosowaniami big data w analizie danych genomicznych na Politechnice Warszawskiej.

Rada Programowa

Robert Bembenik

Kierownik Studium

Krzysztof Dąbrowski

CIO/CTO, mBank S.A.

Piotr Gawrysiak

Profesor Nadzwyczajny, Instytut Informatyki PW

Łukasz Kobyliński

Chief Science Officer, Board Member, Sages

Jakub Koperwas

JEE Consultant & Partner, Sages

Radosław Lipiński

Senior Team Manager, Roche

Mieczysław Muraszkiewicz

Dyrektor ds. Naukowych, Instytut Informatyki PW

Jakub Nowacki

Senior Software Engineer, CodiLime

Andrzej Olękiewicz

Digital R&D Director, TNS Polska SA

Robert Stanikowski

Partner and Managing Director, CEE Technology Advantage Practice Leader, The Boston Consulting Group

Paweł Wróblewski

Regional Manager, Findwise

Rekrutacja i opłaty na semestr letni 2019

W studiach podyplomowych mogą uczestniczyć absolwenci kierunków ścisłych studiów wyższych 1. i 2. stopnia. W przypadku osób z dyplomem nauk humanistycznych przeprowadzana jest rozmowa rekrutacyjna. Przyjęcia realizowane są według kolejności zgłoszeń, do wyczerpania limitu miejsc.

Rekrutacja jest przeprowadzana na podstawie:

Wzór umowy zawieranej przez kandydatów na studia z Politechniką Warszawską (do zapoznania) dostępny jest tutaj.

Termin składania dokumentów: 26 listopada 2018 - 31 stycznia 2019 BRAK MIEJSC

Początek zajęć: marzec 2019

Dokumenty należy składać w sekretariacie Instytutu Informatyki, pok. 204, Wydział Elektroniki i Technik Informacyjnych, 00-665 Warszawa, Nowowiejska 15/19, w godzinach 9:00 – 15:30.

UWAGA 1: Faktury będą wystawiane automatycznie jeśli zgłoszą Państwo taką potrzebę we wniosku. W celu uzyskania szczegółowych wyjaśnień prosimy kontaktować się z księgowością Instytutu Informatyki, tel. 22 234 7664.

UWAGA 2: Z tytułu opłat za studia podyplomowe faktury mogą być wystawione wyłącznie na nabywcę usługi edukacyjnej czyli osobę („Słuchacza” studiów podyplomowych), która zawiera z Uczelnią umowę o warunkach odpłatności za studia podyplomowe w Politechnice Warszawskiej stanowiącą zał. nr 7 do uchwały nr 332/XLVIII/2015 Senatu PW z dnia 23.09.2015 r. W przypadku, gdy opłata za studia podyplomowe wnoszona jest przez firmę, istnieje możliwość, aby na fakturze firma ta została wskazana jako płatnik, a uczestnik studiów podyplomowych jako nabywca usługi edukacyjnej. W takiej sytuacji niezbędne jest przekazanie przez firmę stosownego pisma zawierającego m.in. dokładne dane potrzebne do wystawienia faktury.

  • Opłaty

    10 000 PLN / rok
  • I rata - 6 000 PLN
    opłatę należy wnieść w terminie 2-14 stycznia 2019
  • II rata - 4 000 PLN
    opłatę należy wnieść do 13 września 2019
  • Limit miejsc: 36 osób
  • Minimalna liczba osób: 18
  • Zapisz się

Dla słuchaczy

Terminarz zjazdów, edycja 2018L
Semestr I 3-4 mar 10-11 mar 24-25 mar 14-15 kwi 12-13 maj 26-27 maj 16-17 cze 30 cze-1 lip 29 wrz
Semestr II 13-14 paź 27-28 paź 24-25 lis 8-9 gru 12-13 sty 26-27 sty 9-10 lut 23-24 lut

Plan zajęć, semestr I 2018L: grupa 1a, grupa 1b, grupa 2

Plan zajęć, semestr II 2018Z: grupa 1 (grupa 1a+1b z sem. I), grupa 2

Terminarz zjazdów, edycja 2018Z
Semestr I 6-7 paź 20-21 paź 17-18 lis 1-2 gru 15-16 gru 19-20 sty 2-3 lut 16-17 lut
Semestr II 9-10 mar 23-24 mar 6-7 kwi 27-28 kwi 18-19 maj 1-2 cze 15-16 cze 29-30 cze

Plan zajęć, semestr I 2018Z: grupa 1a, grupa 1b, grupa 2

Lokalizacja sal: wejście przez podwórze, wejście przez piwnicę

Terminarz zjazdów, edycja 2019L
Semestr I 2-3 mar 16-17 mar 30-31 mar 13-14 kwi 11-12 maj 25-26 maj 8-9 cze 29-30 cze
  • Wydział Elektroniki i Technik Informacyjnych Politechniki Warszawskiej

    Instytut Informatyki
    ul. Nowowiejska 15/19, 00-665 Warszawa

  • Sekretariat Studiów Podyplomowych
    pok. 204, II piętro

    Agnieszka Skalska

    tel.: 22 234 7432
    fax: 22 234 6091
    e-mail: A.Skalska@ii.pw.edu.pl

  • Kierownik
    pok. 302, III piętro

    dr inż. Robert Bembenik

    tel.: 22 234 7715
    e-mail: R.Bembenik@ii.pw.edu.pl

Partnerzy

  • Sages
  • Sas
  • Tableau
  • Allegro
  • Lingaro