Speaker: dr hab. Jan Chorowski, prof. UWr, University of Wrocław, CTO at Pathway
07.06.2023 (Wednesday) 17:15 - 18:30
Registration required
Abstract: Machine Learning models designed to work with streaming systems make decisions on new data points as they arrive. But there is a downside: model decisions can't be easily changed later when the model is updated with fresher data, user feedback, or freshly tuned hyperparameters. This is often a blocker for anomaly detection, recommender systems, process mining, and human-in-the-loop planning. To deal with this, we'll demonstrate design patterns to easily express reactive data processing logic. We will show Pathway, a scalable data processing framework built around a Python programming interface and designed to support implementing algorithms reacting in real time to changing data. We will close with some remarks on consistency and correctness promises that can be asked of distributed streaming systems when executing dynamic algorithms.
Speaker: prof. Toshio Fukuda, Nagoya University, Waseda University
21.04.2023 (Friday) 16:00-17:30
Registration required
Abstract: The medical simulator is a tool for medical fields, such as education, skill improvement, license examination, pre-rehearsal of surgery, development of medical devices and systems, and so on, instead of animal and human experiments. There are many medical simulators have been developed so far in the world. The EVE system shown in this presentation was developed for the endo-vascular surgery using catheter in the blood vein, which is one of the Minimum Invasive Surgery (MIS) instead of the open surgery. This EVE simulator is known as Nagoya Model developed by Nagoya University and other institutions. This system is only one available in the market last twenty years to helps medical doctors to improve their skill and pre-examine the endo-vascular surgery by catheter, such as coiling aneurysm and flow diverting in the blood vessel and also assist scientists and industry for research and development of new medical devices and systems.
Prezentujący: prof. Maciej Mazurowski, Duke University
8 marca 2023 godz.17:15-18:30
Wymagana rejestracja
Streszczenie: Deep learning has shown promise for human-level performance in analysis medical images and is poised to make a significant impact in the field of radiology. Prof. Mazurowski will give an overview of the work of his lab on development and evaluation of deep learning algorithms in the context of medical imaging. In particular, he will describe the work on cancer detection when training data does not include images of cancer. He will also point to research resources that were made publicly available by his lab.
Prezentujący: prof. dr hab. inż. Grzegorz J. Nalepa, Uniwersytet Jagielloński
1 lutego 2023 godz.17:15-18:30
Wymagana rejestracja
Streszczenie: Recently novel research directions and applications have emerged through the use of large-scale sensor data as well as advanced analysis methods. While there is a multitude of powerful processing and analytics methods in data mining (DM) and machine learning (ML), there are also specific challenges relating to the characteristics of the data. Most importantly, aspects such as the interpretability and explainability of the applied DM models and their results, motivate to apply domain/background knowledge to data mining and machine learning approaches. In the specific context of sensor data, processing requires not only the proper selection and curation of potentially relevant data, but also dimensionality reduction and feature engineering. Furthermore, when applying the models for knowledge discovery and/or decision support, their transparency and explainability is often crucial, otherwise limiting acceptance and trust in their adoption in sensitive applications of AI. Using background/domain knowledge enables semantic enrichment and ultimately semantic interpretation, leading to a knowledge-based analysis approach, which we call Semantic Data Mining (SDM). In this talk we will briefly outline main intuitions behind SDM and present some original results from our recent projects in the area of Industry 4.0.
Prezentujący: prof. dr hab. Bogdan Józef Smołka, Politechnika Śląska
18 stycznia 2023 godz.17:15-18:30
Wymagana rejestracja
Streszczenie: Metody poprawy jakości obrazów od kilkudziesięciu już lat stanowią przedmiot intensywnych badań naukowych. W ostatnich latach, w związku z niezwykle szybkim rozwojem bardzo popularnych urządzeń umożliwiających akwizycję obrazów i sekwencji wideo, metody redukcji szumów, kompensacji rozmycia, korekcji barw i redukcji artefaktow związanych z kompresją, cieszą się rosnącym zainteresowaniem środowiska badawczego. Wiąże się to głównie z miniaturyzacją układów optycznych pracujących często w trudnych warunkach oświetleniowych i koniecznością zapewnienia jakości informacji wizyjnej satysfakcjonującej użytkowników. Tematem wystąpienia jest przegląd metod redukcji mieszanych szumów impulsowych i gaussowskich zakłócających barwne obrazy cyfrowe. Omówione zostaną różnorodne techniki redukcji szumów impulsowych, gaussowskich oraz ich mieszanin, ze szczególnym uwzględnieniem metod opracowanych przez autora wystąpienia. Tematyka referatu będzie koncentrowała się na obrazach barwnych, ale przedstawione metody przetwarzania mogą być także wykorzystane do przetwarzania obrazów jednokanałowych, a nawet sygnałów jednowymiarowych, co znacznie poszerza zakres ich zastosowań i krąg osób potencjalnie zainteresowanych referatem.
Prezentujący: prof. Michal Kosinski, Organizational Behavior, Stanford University Graduate School of Business
7 grudnia 2022 godz.17:15-18:30
Wymagana rejestracja
Streszczenie: A growing proportion of human activities―such as social interactions, entertainment, shopping, and gathering information―are now mediated by digital devices and services. Such digitally mediated activities can be easily recorded, offering an unprecedented opportunity to study and assess psychological traits using actual (rather than self-reported) behavior. Our research shows that digital records of behavior―such as facial images, samples of text, Tweets, Facebook Likes, or web-browsing logs―can be used to accurately measure a wide range of psychological traits. Such predictions do not require participants' active involvement; can be easily and inexpensively applied to large populations; and are relatively immune to misrepresentation. Consequently, the predictability of psychological traits offers a promise to improve research and practice in fields ranging from psychology, sociology, and education to management and marketing. However, if applied unethically, the same models pose unprecedented risks to the privacy and well-being of entire societies.
Prezentujący: dr hab. Piotr Sankowski, prof. UW, prezes IDEAS NCBR
9 listopada 2022 godz. 11:15 - 13:00, Budynek C1, sala 205
Streszczenie: Jak uzyskać finansowanie na badania podstawowe i proof-of-concept? Co brać pod uwagę pisząc wnioski o granty ERC? Dlaczego nie warto się poddawać? Jeżeli nie granty ERC, to co – możliwości realizacji projektów badawczych w IDEAS NCBR. O swoich doświadczeniach opowie dr hab. Piotr Sankowski, prof. UW, prezes IDEAS NCBR, trzykrotny beneficjent grantów Europejskiej Rady ds. Badań Naukowych (ERC – European Research Council).
Prezentujący: prof. Rafal A. Angryk, Professor of Computer Science at Georgia State University (GSU)
26 października 2022 godz.17:15-18:30
Wymagana rejestracja
Streszczenie: With the recently publicized USA’s ambitions to enable human exploration of the Moon and Mars in the next decade, combined with NASA’s long-standing open data policy, we can observe an increase in opportunities for performing interesting and impactful machine learning research on the rich space weather data, which includes the Sun’s magnetic field data, and other measurements coming from multiple spacecrafts or ground-based observatories. We aim to increase awareness about these promising machine learning research opportunities through this seminar. Firstly, we will briefly discuss the impacts of transient solar events on the Earth and space travel to clarify the importance of accurate space weather predictions. While these topics have always been central to heliophysicists’ research interests, they are nowadays intensively investigated by the operational community, involving major federal institutions, such as National Oceanic and Atmospheric Administration (NOAA), the United States Space Force, NASA, and many dynamically growing industries related to communication satellites, air travels, power grids, precision agriculture, oil drilling, and (recently growing) space tourism. Secondly, we will discuss some aspects of freely available big data coming from the Sun-pointing satellites (NASA, NOAA, ESA) and multi-institutional networks of ground observatories (e.g., GONG H-alpha Network, hosted by National Solar Observatory). Finally, we will present some examples of the space weather-related research performed in the interdisciplinary Data Mining Lab at Georgia State University (https://dmlab.cs.gsu.edu/), where we try to serve, through collaborative initiatives, both research- and operations-focused space weather communities with big data-driven machine learning research and applications.
Prezentujący: prof. dr hab. inż. Krzysztof Wesołowski, Instytut Radiokomunikacji, Politechnika Poznańska
23 czerwca 2022 godz.16:00-17:30
Wymagana rejestracja
Streszczenie: Komunikacja pomiędzy poruszającymi się pojazdami oraz pojazdami i infrastrukturą drogową i telekomunikacyjną to jeden ze stosunkowo nowych scenariuszy zastosowania systemów i sieci bezprzewodowych intensywnie rozwijany i badany od kilkunastu lat. Dzięki możliwości automatycznej komunikacji między pojazdami oraz pojazdami i infrastrukturą możliwy jest wzrost bezpieczeństwa ruchu, minimalizacja zużycia energii (a w konsekwencji redukcja wytworzonego CO 2 ), zwiększenie przepustowości sieci drogowej i oferta nowych usług dla pasażerów pojazdów. Komunikacja ze strukturą zewnętrzną jest też ważnym narzędziem w przyszłym funkcjonowaniu pojazdów autonomicznych. Po ogólnym wprowadzeniu, pierwsza część referatu będzie poświęcona przeglądowi standardów telekomunikacyjnych normujących zasady transmisji danych pomiędzy pojazdami oraz pojazdami i infrastrukturą. Przedstawiony zostanie system DSRC (Dedicated Short Range Communication) bazujący na zmodyfikowanym standardzie sieci bezprzewodowych IEEE 802.11p z jego europejskim odpowiednikiem ITS-G5 (Intelligent Transportation Systems) normalizowanym przez ETSI oraz na nowej, unowocześnionej wersji standardów IEEE 802.11bd. Równolegle w ramach konsorcjum standaryzacyjnego 3GPP rozwijane są kolejne standardy komunikacji: C-V2X (powiązane z systemami bezprzewodowymi LTE oraz LTE-Advanced) oraz system 5G-V2X bazujący na standardach 5G New Radio. W przypadku systemów i sieci 5G komunikacja między pojazdami oraz pojazdami i infrastrukturą jest jednym z głównych scenariuszy systemów URLLC (Ultra Reliable Low Latency Communications) sieci 5G. W drugiej części referatu zrelacjonowane zostaną badania zrealizowane we współpracy z Centrum Badawczo-Rozwojowym Nokia Siemens Networks we Wrocławiu oraz dalsze badania zespołu zainspirowane przez tę współpracę. Dotyczyły one komunikacji w ramach konwoju pojazdów i oceny niezawodności komunikacji i sterowania nim. Przedstawione zostaną również aktualnie prowadzone w Instytucie Radiokomunikacji w ramach grantu NCN badania systemu radiokomunikacyjnego między pojazdami, w którym transmisja danych działa z wykorzystaniem bogatej informacji kontekstowej i dynamicznego dostępu do widma.
Prezentujący: dr hab. inż. Tomasz Trzciński, prof. uczelni, CVLab (Politechnika Warszawska), Uniwersytet Jagielloński, Tooploox
27 kwietnia 2022 godz.15:15-16:30
Wymagana rejestracja
Streszczenie: Neural networks suffer from catastrophic forgetting, defined as an abrupt performance loss on previously learned tasks when acquiring new knowledge. For instance, if a network previously trained for detecting virus infections is now retrained with data describing a recently discovered strain, the diagnostic precision for all previous ones drops significantly. To mitigate that, we can retrain the network on a joint dataset from scratch, yet it is often infeasible due to the size of the data, or impractical when retraining requires more time than it takes to discover a new strain. The catastrophic forgetting severely limits the capabilities of contemporary neural networks and continual learning aims to address this pitfall. During the talk, we will introduce continual learning as a domain of machine learning. We will then look at the approaches inspired by recent neuroscientific works, specifically at the generative models employed in continual learning scenario. Based on our research where we hypothesize that the unsupervised way of incorporating knowledge by generative models corresponds to the way biological systems continually learn, we will introduce generative replay as a method to overcome catastrophic forgetting. We will then further explore the landscape of continual learning from a deep generative modeling point of view.
Prezentujący: prof. dr hab. inż. Szymon Jaroszewicz, Instytut Podstaw Informatyki (Polska Akademia Nauk), Wydział Matematyki i Nauk Informacyjnych (Politechnika Warszawska)
30 marca 2022 godz.17:15-19:00
Wymagana rejestracja
Streszczenie: Zaawansowane metody uczenia maszynowego pozwalają, na często bardzo dokładną, predykcję przyszłych zdarzeń. Jednak odkryte zależności nie muszą mieć charakteru przyczynowego, pozwalającego świadomie wpływać na dane zjawisko. Celem wnioskowania przyczynowego jest budowa modeli opisujących związki przyczynowe. Przedstawię krótki zarys wnioskowania przyczynowego, rozpoczynając od metod przeznaczonych dla danych pochodzących z badań randomizowanych takich jak modelowanie różnicowe. Następnie przedstawię podejścia do wnioskowania przyczynowego na podstawie danych nierandomizowanych, przestawiając krótko metody takie jak propensity score czy zmienne instrumentalne, a także wybrane nowsze podejścia związane z uczeniem maszynowym. Przedstawię również najbardziej ogólne podejścia pozwalające na wnioskowanie z danych czysto obserwacyjnych.
Prezentujący: prof. dr hab. Jacek Tabor, GMUM, Uniwersytet Jagielloński
27 stycznia 2022 godz.17:00-18:30
Wymagana rejestracja
Streszczenie: Anomaly (novelty/outlier) detection refers to the identification of abnormal or novel patterns embedded in a large amount of (nominal) data. The goal of anomaly detection is to identify unusual system behaviors, which are not consistent with its typical state. Anomaly detection algorithms find application in fraud detection, discovering failures in industrial domain, detection of adversarial examples, etc. (the first formal definitions of so-called “discordant observations” date back to the 19th century). In contrast to typical binary classification problems, where every class follows some probability distribution, an anomaly is a pattern that does not conform to the expected behavior. In other words, a completely novel type of outliers, which is not similar to any known anomalies, can occur at a test time. Moreover, in most cases, we do not have access to any anomalies at training time. In consequence, novelty detection is usually solved using unsupervised approaches, such as one-class classifiers, which focus on describing the behavior of nominal data (inliers). Any observation, which deviates from this behavior, is labeled as an outlier. In the first part of the talk we discuss classical kernel methods used in anomaly detection: One-class SVM (OCSVM) and SVDD are two well known kernel methods for one-class classification. While OCSVM directly uses SVM to separate the data from the origin (considered as the only negative sample), SVDD aims to enclose most of the data points inside a hypersphere with minimal volume. To provide a unique local minimum, SVDD relaxes this problem to the convex objective by penalizing data points outside the hypersphere. Next, we proceed to the recent deep learning models like deep SVDD -- the direct minimization of SVDD loss may lead to hypersphere collapse to a single point. To avoid this negative behavior, DSVDD (deep SVDD) recommends that the center must be something other than the all-zero-weights solution, and the network should use only unbounded activations and omit bias terms. In the last part of the talk we briefly discuss OneFlow (TPAMI 2021), a model we introduced, where the anomaly detection is constructed with the use of flow models and based on constructing a minimal volume bounding region.
Prezentujący: prof. dr hab. inż. Jerzy Stefanowski, Instytut Informatyki, Politechnika Poznańska
25 listopada 2021 godz.17:00-18:30
Wymagana rejestracja
Streszczenie: Rozwój uczenia maszynowego w ostatnich latach doprowadził do powstanie metod oraz ich spektakularnych zastosowań w wielu dziedzinach, a w konsekwencji do zainteresowania ze strony przemysłu oraz wielu organizacji. Pomimo osiągania wysokiej trafności predykcyjnej w niektórych zadaniach, najbardziej popularne systemy wykorzystują dość złożone modele, typu „czarnych skrzynek”, które są nieprzejrzyste i niezrozumiałe dla ludzi. Braki w zakresie oferowania informacji jak takie systemy wewnątrz działają, czego się nauczyły, jak doszły do konkretnej decyzji, sprawdzenia przyczyn błędów prowadzą do ograniczeń w ich zastosowaniu i akceptacji przez ludzi lub organizacje. Jest to szczególnie ważne w sytuacjach, gdzie decyzje systemów dotyczą lub wpływają na ludzi. Doprowadziło to do rozwoju badań w zakresie tzw. wyjaśnialności sztucznej inteligencji (ang. XAI) i wprowadzania nowych metod interpretacji predykcji systemów uczenia maszynowego. Niniejsza prezentacja dotyczy tej tematyki w zakresie przedstawienia zarówno oferowanych możliwości, jak i dyskusji niejasności oraz otwartych problemów. Będzie ona obejmować: zagadnienia terminologiczne w tej problematyce, kryteriów oceny wyjaśnień, klasyfikacji zaproponowanych metod. Przedstawi się też przykłady autorskich doświadczeń. W końcowej części prezentacji omówi się obecne spojrzenie instytucji regulacyjnych oraz organizacji europejskich, które prowadzą do paradygmatu tzw. sztucznej inteligencji godnej zaufania (ang. Trustworthy AI). Przeprowadzi się dyskusje postulatów odpowiedzialności i bezstronności inteligentnych systemów oraz powiązania z interpretowalnością.
Prezentujący: prof. dr hab. inż. Janusz Kacprzyk, Instytut Badań Systemowych PAN
9 czerwca 2021, godz. 11:15 - 13:00
Streszczenie: Sztuczna inteligencja (AI – artificial intelligence), która w ostatnich latach szturmem zdobywa świat w sensie zainteresowania społeczeństwa i mediów, ale też rosnącej liczby produktów i firm, miała od początku w swojej agendzie ambitne plany pełnej automatyzacji różnego rodzaju czynności i procesów, wymagających „inteligencji”. Ambicja było zastąpienie człowieka, czyli – w kontekście podejmowania decyzji, czyli właściwie wszystkiego – tzw. „automated decision making (ADM)”. Coraz większe możliwości komputerów w zakresie tzw. „number crunching” sprawiły, że podejście to odniosło pewne sukcesy, ale głównie w zastosowaniach na niższym poziomie, typu np. rozpoznawania obrazów. Podejście to nie odniosło niestety większych sukcesów w rozwiązywaniu bardziej wyrafinowanych problemów, np. planowania strategicznego czy podejmowania nietrywialnych decyzji w organizacjach, gdy człowiek jest elementem kluczowym, a jego czy jej opinie i osądy są decydujące, a racjonalność może być nieoczywista. Okazało się, ze podejście typu ADM nie sprawdza się i trzeba proponować podejścia typu „quasi-automated decision making (quasi-ADM), w których prostsze aspekty pozostawia się komputerowi, czyli AI, a bardziej wyrafinowane – człowiekowi. Psychologicznie ma to wielki sens, bo człowiek woli, żeby go czy ją „wspierać, czyli pomagać”, a nie „zastępować”. W pierwszej części pokazane zostaną główne aspekty takiego podejścia quasi-ADM, przede wszystkim dotyczące różnych koncepcji „human/society-XXX (in, on, over, out of)-the loop”, zwłaszcza w zastosowaniach krytycznych z punktu widzenia bezpieczeństwa, typu np. wojskowych. Jako konkretny przykład rozpatrzone będzie podejście typu „decision aid”, obejmujące – dla nietrywialnych problemów praktycznych – decydenta (tzw. sędziego, ang. judge), który zna swoja dziedzinę, np. logistykę, ale nie zna narzędzi formalnych do rozwiązywania zadań, oraz analityka (tzw. doradcy - advisor), który zna narzędzia, ale nie musi znać dobrze dziedziny. Rozpatrzone zostaną różne aspekty takiego tzw. judge-advisor systems (JAS), koncentrując się na różnych zagadnieniach związanych z tzw, advice giving, czyli podawaniu rady, i tzw. advice taking, czy przyjmowaniu rady, a w szczególności, zagadnienie tzw. discounting, czyli niepełnego przyjmowania rad doradcy przez sędziego, ale także np. argumentacji. Podane będą pewne propozycje sformułowane przez psychologów, kognitywistów itp. , zarówno dotyczące analizy i uzasadnienia takich niepożądanych zachowań, jak też możliwości ich uniknięcia w możliwie dużym stopniu.
Prezentujący: prof. Zbigniew Michalewicz, School of Computer Science, University of Adelaide (Emeritus Professor) oraz Complexica
12 maja 2021, godz. 11:15 - 13:00
Streszczenie: Głównym tematem wystąpienia będzie budowa systemów wspomagania decyzji opartych na sztucznej inteligencji; systemów, które w oparciu o osiągalne dane potrafią rekomendować najlepsze decyzje. Prezentowane przemyślenia będą oparte na ponad 20-letnich doświadczeniach, opartych na pracy w trzech firmach (NuTech Solutions, SolveIT Software, oraz Complexica). Poruszane tematy będą dotyczyć wielu dziedzin badawczych, jak na przykład optymalizacji wielokryterialnej, optymalizacji problemów wieloczłonowych, optymalizacji w środowiskach dynamicznych, modeli predykcyjnych, czy też możliwości wyjaśniających proponowane rozwiązanie. Podczas wystąpienia będą też omówione pierwsze eksperymenty prelegenta z algorytmami ewolucyjnymi (z 1988 roku), pierwsze doświadczenia i obserwacje. Badania naukowe z tego okresu czasu miały bowiem niewątpliwie wpływ na późniejszą (komercyjną) działalność. Pod koniec wystąpienia zostaną podane pewne kierunki badań naukowych, które prelegent uważa za ważne w kontekście zastosowań.
Slajdy z prezentacjiPrezentujący: prof. Witold Pedrycz, University of Alberta w Edmonton oraz Instytut Badań Systemowych Polskiej Akademii Nauk
14 kwietnia 2021, godz. 17:00 - 18:30
Streszczenie: In data analytics, system modeling, and decision-making models, the aspects of interpretability and explainability are of paramount relevance, just to mention only explainable Artificial Intelligence (XAI). They are especially timely in light of the increasing complexity of systems one has to cope with. We advocate that there are two factors that immensely contribute to the realization of the above important features, namely, a suitable level of abstraction in describing the problem and a logic fabric of the resultant construct. It is demonstrated that their conceptualization and the following realization can be conveniently carried out with the use of information granules (for example, fuzzy sets, sets, rough sets, and alike). We advocate that there are two factors that immensely contribute to the realization of the above important features, namely, a suitable level of abstraction in describing the problem and a logic fabric of the resultant construct. It is demonstrated that their conceptualization and the following realization can be conveniently carried out with the use of information granules (for example, fuzzy sets, sets, rough sets, and alike).
Slajdy z prezentacjiPrezentujący: dr hab. inż. Michał Choraś, Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy
17 marca 2021, godz. 11:15 - 13:00
Streszczenie: W trakcie seminarium prelegent omówi aktualne problemy dotyczące cyberbezpieczeństwa oraz wyniki prac prowadzonych w celu wykrywania ataków sieciowych. Prelegent omówi także mechanizmy wykorzystywane w celu wykrywania tzw. fake news. Omówione zostaną także aktualne wyzwania dla metod uczenia maszynowego, w tym bezpieczeństwo oraz wyjaśnialność (explainability). Przedstawiione zostaną rezultaty wybranych projektów EU, w których prelegent bierze udział (m.in. InfraStress, SIMARGL, SPARTA, SATIE, SocialTruth).
Slajdy z prezentacjiPrezentujący: prof. Włodzisław Duch, Uniwersytet Mikołaja Kopernika w Toruniu
5 lutego 2021, godz. 11:15 - 13:00
Streszczenie: Zrozumienie sposobu działania mózgu, związku procesów fizycznych z mentalnymi i wykorzystanie tej wiedzy do rozwoju algorytmów sztucznej inteligencji jest jednym z najważniejszych wyzwań stojących przed nauką. Dlatego IEEE stworzyło Brain Initiative (https://brain.ieee.org/). Podejmowane są próby wielkiej integracji różnych poziomów opisu, od genetyki i procesów molekularnych do neurodynamiki, decydującej o stanach mentalnych i zachowaniu (NIMH RDoC). Symulacje aktywacji sieci neuronowych mózgu pozwalają na stawianie interesujących hipotez w przypadku zaburzeń psychicznych, zniekształceń pamięci, jak i analizy rozchodzenia się pobudzeń w napadach padaczkowych. Coraz lepiej radzimy sobie z interpretacją i poszukiwaniem znaczników aktywacji sieci i regionów mózgu korzystając z metod neuroobrazowania i metod elektrofizjologicznych. Dzięki temu możliwe jest odczytywanie myśli i wyobrażeń z danych funkcjonalnego rezonansu magnetycznego i lokalnych potencjałów polowych (ECoG). Metody neuromodulacji pozwalają bezpośrednio wpływać na strukturę połączeń mózgów, naprawiając lub optymalizując jego działanie. Przedstawię też kilka przykładów wzajemnych wpływów modeli neuronowych i badań nad mózgiem. Co w tej dziedzinie jest możliwe a co jest fantazją? Czy wkrótce podłączymy komputery bezpośrednio do naszych mózgów? Czy doprowadzi nas to do katastrofy, czy raczej do utopijnej wizji transhumanistów, ery powszechnej szczęśliwości?
Slajdy z prezentacji
Rada Dyscypliny Naukowej Informatyka Techniczna i Telekomunikacja Politechniki Wrocławskiej
Kontakt:
dr hab. inż. Maciej Zięba, prof. PWr