cogs

Szacowanie rozmiaru funkcjonalnego na podstawie nazw przypadków użycia

Prezentujący: dr inż. Mirosław Ochodek, Politechnika Poznańska

6 listopada 2020, godz. 13:15 - 15:00
Zoom Meeting ID: 216 474 319, Password: 997799

Streszczenie: Metody pomiaru rozmiaru funkcjonalnego takie jak IFPUG Function Point Analysis (FPA) czy COSMIC są często stosowane jako wejście dla metod szacowania pracochłonności / kosztów w projektach informatycznych. Niestety ich użycie jest często bardzo trudne lub nawet niemożliwe jeśli wymagania funkcjonalne dla tworzonego oprogramowania są zdefiniowane zbyt ogólnie. Taka sytuacja występuje na przykład podczas szacowania pracochłonności na wczesnych etapach projektowych lub planowania w dłuższym horyzoncie w przypadku projektów stosujących zwinne metodyki zarządzania projektami. W takim przypadku zmuszeni jesteśmy do szacowania rozmiaru funkcjonalnego na podstawie nieprecyzyjnych lub niekompletnych wymagań. W prezentacji przybliżę zaproponowane przez nas metody szacowania rozmiaru funkcjonalnego w oparciu o nazwy przypadków użycia (najczęściej jednozdaniowych opisów celów jakie użytkownicy będą chcieli osiągnąć poprzez interakcję z tworzonym oprogramowaniem). Przedstawię metody bazujące na klasyfikacji celów przypadków użycia z wykorzystaniem narzędzi przetwarzania języka naturalnego (AUCG, BN-UCGAIN) oraz nowszy model zbudowany w oparciu o konwolucyjne sieci neuronowe i dostępne model Word Embeddings (DEEP-COSMIC-UC). Dokładność szacowania zaproponowanych metod walidowano na zbiorze 437 przypadków użycia z 27 projektów informatycznych. Wnioski z przeprowadzonych analiz wskazują, że modele te stanowią bardzo dobrą alternatywę dla konkurencyjnych metod szacowania rozmiaru funkcjonalnego, które można zastosować w podobnych warunkach.

Ewaluacja hybrydowego cyklu życia oprogramowania w projektach akademickich

Prezentujący: mgr inż. Rafał Włodarski, Politechnika Łódzka

29 września 2020, godz. 13:15 - 15:00
Zoom Meeting ID: 216 474 319, Password: 997799

Streszczenie: W ostatnich latach można zaobserwować wzmożone zainteresowanie hybrydowymi metodami wytwarzania oprogramowania - wiele firm łączy różne, istniejące podejścia aby zwiększyć ogólną efektywność, zwinność stosowanych procesów i jakość wytwarzanych produktów. W literaturze można znaleźć coraz więcej publikacji na ten temat, jednak nadal istnieje luka w kwestii badań efektywności podejść hybrydowych do zastosowań w kontekście uczelnianym. W ramach przedstawionych prac badawczych, postawiono sobie za cel dokonanie analizy hybrydowego cyklu wytwarzania oprogramowania wprowadzonego w ramach projektów rozwijanych przez studentów i porównanie jego efektów z podejściem iteracyjnym oraz sekwencyjnym. Na tę potrzebę przeprowadzono w semestrze letnim 2019/2020 badanie wśród studentów informatyki pierwszego stopnia oceniające wpływ danej metody na sukces rozwijanych projektów. Rozpatrzono jego trzy wymiary przy użyciu metryk: jakość produktu, produktywność zespołu oraz jakość pracy w zespole. Otrzymane wyniki mogą stanowić fundamenty dalszych prac naukowych mających na celu dostosowanie bądź zaprojektowanie cyklu rozwoju oprogramowania na potrzeby projektów tworzonych w ramach zajęć dydaktycznych.

Abstract: In recent years, a vivid interest in hybrid development methods has been observed as practitioners combine various approaches to software creation in order to improve productivity, product quality, and adaptability of the process to react to change. Scientific papers on the subject proliferate, however evaluation of the effectiveness of hybrid methods in academic context is yet to follow. The work presented aims primarily at investigating if introducing a hybrid approach for student projects brings added value as compared to iterative and sequential development. A controlled experiment was carried out among Bachelor students during the Spring semester of 2019-2020 academic year to assess the impacts of a given development method on the success of student computing undertakings. Its three dimensions were examined via a set of metrics: product quality, team productivity and teamwork quality. The results provide a starting point for educators and researchers wishing to tailor or design a software development process for academic needs.

Slajdy z prezentacji

Tworzenie diagramów klas UML w oparciu o ontologie dziedzinowe OWL 2

Prezentujący: mgr inż. Małgorzata Sadowska, Politechnika Wrocławska

3 kwietnia 2020, godz. 13:15 - 15:00

Streszczenie: Podczas prezentacji zostanie przedstawiona zaproponowana metoda tworzenia diagramów klas UML w oparciu o ontologie dziedzinowe wyrażone w języku OWL 2. Kluczowym krokiem metody jest sposób ekstrakcji elementów diagramu klas UML z ontologii. Wyróżniono metodę ekstrakcji bezpośredniej i metodę ekstrakcji rozszerzonej. Metoda ekstrakcji bezpośredniej zapewnia, że wydobyty diagram klas UML jest zawsze zgodny z ontologią. Metoda ekstrakcji rozszerzonej pozwala na wydobycie elementów UML, które są tylko częściowo oparte są na ontologii, ale jednocześnie nie są sprzeczne z ontologią. Propozycja ekstrakcji rozszerzonej wynikała z pragmatycznych potrzeb.

Slajdy z prezentacji

Asocjacyjny metamodel danych

Prezentujący: mgr inż. Marek Krótkiewicz, Politechnika Wrocławska

29 października 2019, godz. 13:15 - 15:00
Politechnika Wrocławsa, budynek D1, 311a

Streszczenie: Podejście do modelowania danych eksploatowane od dekad skupia swoją uwagę właśnie na danych. W metamodelu asocjacyjnym (ang. Association-Oriented Metamodel – AOM) związki stanowią co najmniej tak samo istotny element, jak same dane. Z drugiej strony, podejście do tworzenia baz danych odchodzi coraz bardziej od modelowania poprzez rosnącą popularność rozwiązań semistrukturalnych. AOM jest podejściem silnie strukturalnym zapewniającym implementowalność, jednoznaczność, dużą pojemność semantyczną oraz siłę wyrazu. Głównym celem prowadzonych badań było opracowanie narzędzia zapewniającego jednocześnie precyzję i wydajność modelowania. W ramach osiągnięcia naukowego zdefiniowano: model danych, język definicji i modyfikacji danych, język zapytań do bazy danych, język modelowania oraz formalizm reprezentacji symbolicznej wyrażeń metamodelu, zarówno na poziomie intensjonalnym jak i ekstensjonalnym.

Slajdy z prezentacji

Tutoring jako jedna z metod edukacji spersonalizowanej

Prezentujący: dr inż. Wojciech Thomas, Politechnika Wrocławska

8 października 2019, godz. 13:15 - 15:00
Politechnika Wrocławsa, budynek B4, 4.48

Streszczenie: We współczesnym świecie coraz większego znaczenia nabiera indywidualizacja procesu nauczania. Jednym ze stosowanych podejść jest tutoring polegający na pracy nauczyciela ze studentem w relacji jeden do jednego. W ramach seminarium zaprezentowana zostanie: specyfika tego podejścia, jego wady i zalety, porównanie z innymi metodami pracy indywidualnej (coaching, mentoring).

Slajdy z prezentacji

Systematyczny Przegląd Literatury z tematu testowania mutacyjnego w językach C i C++.

Prezentujący: mgr inż. Marek Sośnicki, Politechnika Wrocławska

12 czerwca 2019, godz. 15:15 - 17:00
Politechnika Wrocławsa, budynek B4, 227

Streszczenie: Do większości najnowszych badań w temacie testowania mutacyjnego używany jest język JAVA, jednakże technika ta może być skutecznie zastosowana w innych środowiskach. Szczególnie użyteczna wydaje się ona w aplikacjach pisanych na systemy wbudowane wymagające dużej niezawodności. Takie systemy, są zazwyczaj pisane przy użyciu języków C i C++. W ostatnim czasie pojawiło się wiele nowych narzędzi oraz badań wspomagających testowanie mutacyjne w tych językach. W prezentacji zostanie omówiony postęp prac nad systematycznym przeglądem literatury z tematu testowania mutacyjnego w językach C oraz C++. Szczególny nacisk zostanie położony na problem wyszukania wszystkich artykułów z tego tematu – zostanie omówiona aplikacja mająca pomóc zautomatyzować proces wyszukiwania interesujących artykułów na podstawie ich treści.


Podejście do wytwarzania oprogramowania – kontekst dla aktywności języka UML

Prezentujący: mgr inż. Karolina Rączkowska-Gzowska, Politechnika Wrocławska

12 czerwca 2019, godz. 15:15 - 17:00
Politechnika Wrocławsa, budynek B4, 227

Streszczenie: Jedną z notacji wykorzystywanych do opisu przebiegu przypadku użycia jest aktywność języka UML. Aby wyrażony w ten sposób opis był wartościowy, istotny jest kontekst, w którym aktywności jest definiowana – np. struktury danych przetwarzanych w ramach przebiegu, projekty interfejsów użytkownika. Podczas prezentacji zostanie przedstawiony aktualny stan prac nad podejściem do wytwarzania oprogramowania (w szczególności analizy systemowej) uwzględniający aktywność UML jako środek do definiowania przebiegów przypadków użycia. Zaprezentowana zostanie wstępna wersja ankiety kierowanej do ekspertów (analityków, testerów, programistów, architektów), która ma na celu zebranie informacji na temat elementów uwzględnionych w specyfikacjach, z którymi eksperci pracowali w komercyjnych projektach.


Wymagania wydajnościowe w podejściu do wytwarzania oprogramowania opartym o MDA

Prezentujący: mgr inż. Dariusz Gall, Politechnika Wrocławska

5 czerwca 2019, godz. 15:15 - 17:00
Politechnika Wrocławsa, budynek B4, 227

Streszczenie: W ramach seminarium zostanie omówione uściślenie podejścia do wytwarzania oprogramowania MDA (Model-Driven Architecture), które uwzględnia wymagania wydajnościowe zdefiniowane na poziomie PIM (Platform Independent Model) oraz ich odwzorowanie do modelu na poziomie PSM (Platform Specific Model). Kluczowym elementem podejścia są transformacje wymagań wydajnościowych. Punktem wyjścia do ich przeprowadzenia jest zapisany jako PSM’ wynik transformacji wymagań funkcjonalnych. Wynikiem model PSM’’. Następnie, uwzględniając charakterystyki wydajnościowe platformy implementacyjnej i uruchomieniowej, tworzony jest model PCM (Palladio Component Model) – wydajnościowy model systemu umożliwiający wyznaczenie/zbadanie charakterystyk wydajnościowych za pomocą dedykowanego narzędzia.


Pozyskiwanie danych do modelowania brzydkich zapachów kodu

Prezentujący: mgr inż. Tomasz Lewowski, Politechnika Wrocławska

5 czerwca 2019, godz. 15:15 - 17:00
Politechnika Wrocławsa, budynek B4, 227

Streszczenie: Kwestia zrozumiałości kodu od dawna stanowi duże wyzwanie dla programistów i badaczy. Jedną z prób systematyzacji tego problemu są brzydkie zapachy kodu, koncept wprowadzony przez Kenta Becka i Martina Fowlera pod koniec lat 90-tych. Ich publikacja przedstawia ponad 20 różnego rodzaju brzydkich zapachów i opis cech charakterystycznych, po których zapachy te można rozpoznać. Rozwiązanie to zostało dobrze przyjęte przez programistów, jednakże wciąż jest rozumiane raczej na poziomie intuicyjnym a nie formalnym, co poważnie utrudnia automatyzację wykrywania brzydkich zapachów. W ramach badań prowadzone są prace nad zastosowaniem metod uczenia maszynowego w celu automatyzacji wykrywania brzydkich zapachów kodu. W czasie prezentacji szczególny nacisk zostanie położony na wieloetapowy proces zbierania danych uczących i pułapki na jakie można się tam natknąć oraz wyjaśnienie przyczyn, dla których uniknięcie ich jest kluczowe aby uzyskany algorytm był wartościowy.


Eksperymentalna ocena narzędzia do tworzenia i walidacji diagramów klas UML

Prezentujący: mgr inż. Małgorzata Sadowska, Politechnika Wrocławska

5 czerwca 2019, godz. 15:15 - 17:00
Politechnika Wrocławsa, budynek B4, 227

Streszczenie: W ramach pracy nad rozprawą doktorską zaprojektowano i zaimplementowano narzędzie przeznaczone do tworzenia i walidacji diagramów klas UML z wykorzystaniem ontologii dziedzinowych wyrażonych w OWL 2. Podczas prezentacji zostanie przedstawiony projekt, przebieg oraz wnioski z przeprowadzonego eksperymentu, którego celem była empiryczna ocena opracowanego narzędzia. W eksperymencie łącznie wzięło udział 57 studentów informatyki z Politechniki Wrocławskiej.


Szwedzka teoria dyplomowania – co to jest i jak to działa

Prezentujący: dr Ludwik Kuźniarz

13 marca 2019, godz. 15:15 - 17:00
Politechnika Wrocławsa, budynek B4, 227

Streszczenie: Celem prezentacji jest omówienie procesu dyplomowania na studiach magisterskich w Blekinge Institute of Technology (BTH) w Karlskronie. Najpierw przedstawię zarys procesu – ogólną koncepcję dyplomowania, główne elementy procesu oraz realizacji tego procesu. Następnie przedstawię bardziej szczegółowo dwa kluczowe kursy realizowane w ramach ogólnego procesu dyplomowania i krótko je skomentuję. Na zakończenie podzielę się swoim doświadczeniem z realizacji tego procesu w Instytucie Inżynierii Oprogramowania w BTH.


Ogólny model zarządzania i przetwarzania ontologii

Prezentujący: dr inż. Adrianna Kozierkiewicz i dr inż. Marcin Pietranik, Politechnika Wrocławska

30 stycznia 2019, godz. 13:15 - 15:00
Politechnika Wrocławsa, budynek B4, 228

Streszczenie: W ostatnich latach ontologie stały się wygodną i elastyczną strukturą do przetwarzania wiedzy w systemach komputerowych. Znalazły one szeroki wachlarz zastosowań: od modelów prognozowania pogody po systemy ekspertowe. W ramach seminarium zostaną przedstawione ostatnie wyniki badań oraz kierunki rozwoju w trzech obszarach dotyczących ontologii. W pierwszej części zostanie zaprezentowany ogólny, matematyczny model ontologii, który stał się teoretyczną podstawą do dalszych badań w tej dziedzinie. W kolejnym kroku zostanie przedstawiony zestaw metod służących do oceny przyrostu wiedzy w procesie integracji ontologii. W rzeczywistych rozwiązaniach często musimy podejmować decyzje w oparciu o całą dostępna wiedzę. Jednakże, wielkość takiej ontologii nie zawsze idzie w parze z zawartą w niej rozumianą semantycznie ilością wiedzy. Zaproponowane metody pozwolą na szybkie oszacowanie przyrostu wiedzy po dodaniu nowej ontologii, co pozwoli na podejmowanie decyzji o ewentualnym procesie integracji. Ostatni etap zostanie poświęcony metodologii śledzenia zmian wprowadzanych w ontologiach. Modyfikacje te są spowodowane koniecznością aktualizacji ontologii z pojawienia się nowej wiedzy. Zmiany na poziomie ontologii mogą pociągać za sobą w konsekwencje w postaci dezaktualizacji odwzorowań między ontologiami. W związku z tym potrzebne są efektywne metody umożliwiające odpowiedź na pytanie, czy w trakcie ewolucji ontologii odwzorowania są nadal poprawne i jeśli nie, to w jaki sposób efektywnie zaktualizować odwzorowania między ontologiami.


Pozyskiwanie wymagań pozafunkcjonalnych wspomagane szablonami

Prezentujący: mgr inż. Sylwia Kopczyńska, Politechnika Poznańska

9 stycznia 2019, godz. 13:15 - 15:00
Politechnika Wrocławsa, budynek B4, 228

Streszczenie: Wymagania pozafunkcjonalne (ang. non-functional requirements, w skrócie NFRy) dotyczą wydajności, bezpieczeństwa, dostępności itp. Są one często lekceważone, a w szczególności te, które są trudne do wyspecyfikowania lub wydają się oczywiste. Takie zachowanie to istotny czynnik ryzyka, ponieważ nieprawidłowe zarządzanie NFRami wielokrotnie okazało się jedną z głównych przyczyn niepowodzeń projektów informatycznych. Jednym z podejść, które wspiera pozyskiwanie NFRów jest katalog szablonów. Szablon NFRa jest to wzorzec zdania w języku naturalnym, który zawiera parametry (puste miejsca) do wypełnienia i części opcjonalne, czyli fragmenty do wyboru. Podczas prezentacji skupię się na następujących trzech pytaniach związanych z pozyskiwaniem NFRów:

  1. Czy NFRy są istotne w podejściach zwinnych do wytwarzania oprogramowania?
  2. Co wiemy na temat korzyści i kosztów związanych z korzystaniem z szablonów NFRów?
  3. Czy opinie zostawiane przez użytkowników sklepów on-line z aplikacjami są obiecującym źródłem NFRów, a w konsekwencji szablonów NFRów?


Waga głosu użytkownika w procesie tworzenia oprogramowania w korporacji

Prezentujący: mgr inż. Michał Adamski, Capgemini Wrocław

5 grudnia 2020, godz. 13:15 - 15:00
Politechnika Wrocławsa, budynek B4, 228

Streszczenie: Żyjemy w czasach, w których bardzo ważne są doświadczenia. Według Microsoftu do 2020 doświadczenie i wrażenie klienta, będzie najważniejszym czynnikiem wpływającym na wybór marki lub dostawcy. Ważniejszym niż sam produkt i jego cena. Jako konsumenci jesteśmy już przyzwyczajeni do nowoczesnych rozwiązań i usług dostępnych w Internecie, z których korzystamy i które spełniają nasze oczekiwania. Jako pracownicy, często musimy korzystać z narzędzi, które są nieintuicyjne i często utrudniają nam pracę zamiast ją ułatwiać. Powodem tego jest ignorowanie głosu użytkownika przy projektowaniu oprogramowania. Zaangażowanie użytkowników pozwala zrozumieć ich prawdziwe potrzeby oraz zidentyfikować problemy, z którymi na co dzień się mierzą. Przedstawię jak wykorzystać proces projektowania user experience, aby stworzyć oprogramowanie, które zarówno spełnia oczekiwania użytkownika, jak i organizacji. W szczególności skoncentruję się na korzyściach zaangażowania użytkownika w fazie badania potrzeb i przy testowaniu rozwiązania. Omówię także moc szybkiego prototypowania. Pomimo, wydawałoby się, oczywistych korzyści, duże organizacje, które wydają ogromne pieniądze na nowe oprogramowanie i inicjatywy związane z digitalizacją, wciąż niechętnie inwestują w projektowanie user experience. Przybliżę wyzwania, z jakimi my projektanci mierzymy się, starając się wprowadzić to podejście w korporacyjnym świecie.

Slajdy z prezentacji

Tworzenie i wykonywanie aplikacji naukowych w paradygmacie przepływu pracy

Prezentujący: dr inż. Bartosz Baliś, Akademia Górniczo-Hutnicza w Krakowie

21 listopada 2018, godz. 13:15 - 15:00
Politechnika Wrocławsa, budynek B4, 228

Streszczenie: Rosnącą złożoność obliczeń naukowych i coraz łatwiejszy dostęp do zasobów i usług rozproszonych infrastruktur obliczeniowych dużej skali powodują, że programowanie i wykonywanie aplikacji naukowych jest nieustającym wyzwaniem. Obliczenia naukowe często mają strukturę wieloetapowej analizy, dlatego też naukowy workflow (przepływ pracy) jest popularnym paradygmatem zarządzania obliczeniami naukowymi. Naukowy workflow ułatwia automatyzację obliczeń naukowych (science automation), dostarczając wygodnej abstrakcji do opisania problemu naukowego jako grafu zadań, a także środowiska wykonawczego (Workflow Management System), które ukrywa złożoność związaną z wykonaniem obliczeń (zrównoleglaniem, rozproszeniem, optymalizacją, niezawodnością, itd.). Paradygmat ten sprzyja również odtwarzalności obliczeń naukowych, niezwykle istotnej dla metody naukowej. W niniejszej prezentacji przedstawiony zostanie HyperFlow — model obliczeniowy, metoda programowania, oraz system zarządzania workflowem naukowym. Celem HyperFlow jest dostarczenie produktywnego ekosystemu do programowania i wykonywania obliczeń naukowych w modelu workflow, a także narzędzia do badań związanych z paradygmatem naukowego workflow. Omówiony zostanie model obliczeniowy HyperFlow oraz jego możliwości programistyczne. Następnie zaprezentowane zostaną wyniki badań związane z zarządzaniem obliczeniami naukowymi w rozproszonych infrastrukturach obliczeniowych (chmurach). Wreszcie przedstawione zostaną wyniki badawcze związane z zastosowaniem systemu HyperFlow w takich dziedzinach jak obliczenia pilne czy zrównoleglanie aplikacji typowych dla systemów HPC w chmurach obliczeniowych.

Slajdy z prezentacji

Uczenie maszynowe w problemie detekcji „brzydkich zapachów kodu” – przegląd literatury

Prezentujący: mgr inż. Tomasz Lewowski, Politechnika Wrocławska

4 lipca 2018, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: „Brzydkie zapachy kodu” to typowe konstrukcje spotykane w kodzie źródłowym oprogramowania, co do których uważa się, że są błędogenne i powodują trudności w utrzymaniu. Literatura dotycząca „brzydkich zapachów kodu” jest bogata, ale jej wiarygodna analiza wciąż przedstawia poważne trudności. Podczas seminarium zostaną zaprezentowane trudności napotkane podczas przeprowadzania systematycznego przeglądu zastosowania metod uczenia maszynowego w problemie detekcji „brzydkich zapachów kodu”, a także wstępne podsumowanie danych zebranych w ramach tegoż przeglądu.


Metoda automatycznego generowania łat oprogramowania z użyciem głębokiego uczenia

Prezentujący: mgr inż. Marcin Stachowiak, Politechnika Wrocławska

6 czerwca 2018, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Uczenie maszynowe coraz częściej znajduje zastosowanie w podstawowych gałęziach przemysłu, w tym również podczas tworzenia oprogramowania. Wykonano już wiele prób zastosowania sztucznej inteligencji w celu poprawy jakości procesów i wytwarzanych produktów w inżynierii oprogramowania. Rozwiązania te wciąż jednak nie są powszechnie stosowane, głównie ze względu na niską skuteczność osiąganych wyników oraz koszty jakie pociąga za sobą zastosowanie uczenia maszynowego do wspierania decyzji w projektach informatycznych. Podczas seminarium zostaną zaprezentowane konkretne przykłady, gdzie sztuczna inteligencja może asystować programistom, architektom, testerom i managerom projektów. Zaprezentowane możliwości wykorzystania uczenia maszynowego w Inżynierii Oprogramowania zostaną oparte o Systematyczny Przegląd Literatury, który w znacznej części został już wykonany. Szczególna uwaga zostanie skupiona wokół zagadnienia automatycznego generowania łat oprogramowania i zastosowania do tego celu algorytmów uczenia głębokiego oraz uczenia ze wzmocnieniem.


Formalizacja aktywności języka UML wykorzystywanych do opisywania przebiegów przypadków użycia

Prezentujący: mgr inż. Karolina Rączkowska, Politechnika Wrocławska

9 maja 2018, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Język UML jest językiem powszechnie używanym do modelowania oprogramowania. Jednym z elementów tego języka są aktywności wykorzystywane między innymi do opisywania scenariuszy przypadków użycia. Brak sformalizowanej semantyki elementów języka UML (która w specyfikacji wyrażona jest za pomocą języka naturalnego) znacząco utrudnia weryfikację modelową, istotną przy próbie automatyzacji procesu wytwarzania oprogramowania – z tego powodu formalizacja semantyki tych elementów ma duże znaczenie. W pracy nad rozprawą doktorską zostanie zaproponowana formalizacja semantyki aktywności oraz przygotowane narzędzie umożliwiające weryfikację zgodności aktywności z intencją modelującego. Podczas prezentacji przedstawiona będzie koncepcja rozprawy doktorskiej oraz aktualny stan prac – wyniki analizy specyfikacji UML pod kątem identyfikacji problemów związanych z interpretacją semantyki aktywności.


Wprowadzenie do SysML jako języka inżynierii systemów

Prezentujący: dr inż. Grzegorz Filcek, Politechnika Wrocławska

25 kwietnia 2018, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Przedstawione zostaną podstawowe informacje na temat języka SysML, jego użycie w cyklu życia systemu, a także podobieństwa i główne różnice w odniesieniu do UML. W szczególności zaprezentowane i omówione będą charakterystyczne dla języka diagramy służące opisowi systemów. W trakcie seminarium przedstawiony zostanie przykład wykorzystania języka w projektowaniu prostego systemu, który zilustruje ideę omawianych diagramów. Aktywny udział uczestników seminarium w dyskusji na temat wykorzystania tego języka w projektowaniu systemów informatycznych, oraz komentowanie na bieżąco jego omawianych elementów będzie mile widziane.


Algebraiczne metody konstrukcji algorytmów podpisów na reprezentacjach grup abstrakcyjnych o nieskończonym nośniku

Prezentujący: dr inż. Arkadiusz Liber, Politechnika Wrocławska

28 marca 2018, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Rok 1976 przyniósł koncepcję schematu podpisu cyfrowego. Koncepcja zaproponowana przez Diffiego i Hellmana spowodowała poszukiwania rozwiązań matematycznych, które mogłyby zastąpić stosowany powszechnie podpis odręczny. Algorytmy podpisów cyfrowych zwykle rozważane są jako trójki (Ag, As, Av), w których algorytmy generacji kluczy, algorytmy podpisywania i weryfikacji podpisu oparte są na problemach trudnych teorii liczb. Przy czym najczęściej spotyka się tu rozwiązania oparte na problemach logarytmu dyskretnego i faktoryzacji. Zaproponowany przez Petera Shora, w 1994 roku, kwantowy algorytm faktoryzacji wymusił poszukiwanie nowych schematów kryptograficznych, a co za tym idzie nowych klas algorytmów podpisów cyfrowych. W ramach pracy przedstawiono wyniki poszukiwań struktur algebraicznych nadających się do konstrukcji nowych typów podpisów cyfrowych. W szczególności zaprezentowano rozszerzenia rozwiązań opartych na grupach skończonego rzędu Gp oraz Gpq, na grupy i pierścienie generowane przez krzywe algebraiczne oraz grupy dywizorów pochodzącej z operacji na rozmaitości algebraicznej. Jako dalszy przykład nośnika do konstrukcji nowoczesnych schematów podpisu mogą posłużyć nieskończone nieprzemienne grupy warkoczowe zaproponowane w 1925 roku przez Artina. Implementację operacji na tych grupach można zrealizować na macierzowej reprezentacji Burau w pierścieniu wielomianów Laurenta. Daje to możliwość implementacji i analizy takich algorytmów podpisu jak WalnutDSA, Wang i Hu, Kahrobaei i Koupparis.


Metody i mechanizmy zapewniające zachowanie parametrów jakościowych usług realizowanych w systemach komputerowych o zmiennej dostępności zasobów

Prezentujący: dr Piotr Nawrocki, Akademia Górniczo-Hutnicza w Krakowie

14 marca 2018, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Obecnie jedną z najważniejszych koncepcji dotyczących sposobów wykorzystania i zarządzania usługami jest koncepcja architektury zorientowanej na usługi SOA (Service-Oriented Architecture). Zgodnie z tą koncepcją usługa powinna być uniwersalna i umożliwiać współdziałanie niezależnie od wykorzystanej platformy sprzętowej i programowej, mieć dobrze zdefiniowany interfejs/kontrakt i reguły działania, obejmować aspekty związane z obszarem biznesowym/technicznym, posiadać budowę modułową, mieć luźne zależności i połączenia pomiędzy usługami, wspierać mechanizmy introspekcji i wyszukiwania za pomocą rejestrów oraz być dostępna niezależnie od wykorzystywanych mechanizmów transportu danych. Oprócz przedstawionych powyżej wymagań statycznych usługa powinna spełniać wymagania dynamiczne związane z zachowaniem parametrów QoS (Quality of Service) i kontraktu SLA niezależnie od kontekstu (na przykład szczytu zapotrzebowania na energię lub szczytu natężenia ruchu sieciowego), czyli zbioru parametrów środowiskowych w którym działa, co nie jest proste do realizacji. Wynika to z faktu, że coraz więcej współczesnych systemów komputerowych działa w dynamicznie zmieniających się środowiskach, co oznacza między innymi konieczność uwzględnienia zmiany kontekstu, w którym działa usługa, wynikającej ze zmiennej dostępności zasobów. Dlatego złożonym problem, który dotąd nie był szerzej badany jest zapewnienie zachowania parametrów usługi, w tym przede wszystkim parametrów QoS i kontraktu SLA, w systemach komputerowych o zmiennej dostępności zasobów. Brak rozwiązań w tym zakresie był główną motywacją prac badawczych przeprowadzonych przez autora. Celem zrealizowanych przez autora badań było opracowanie metod i mechanizmów pozwalających na zachowanie parametrów usług w tym parametrów QoS i kontraktu SLA w systemach komputerowych o zmiennej dostępności zasobów. W wyniku tych prac, autor opracował metody i mechanizmy doposażenia usługi w dodatkową funkcjonalność, obejmującą także elementy inteligencji, która pozwoliła na adaptowanie się usługi do kontekstu, w którym się znajduje z zachowaniem jej parametrów w szczególności związanych z jakością usługi.

Slajdy z prezentacji

Wykorzystanie ontologii dziedzinowych w OWL 2 w procesie walidacji diagramów klas UML

Prezentujący: mgr inż. Małgorzata Sadowska, Politechnika Wrocławska

6 grudnia 2017, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Ontologie dziedzinowe stanowią źródło wiedzy na temat konkretnych dziedzin i wycinków rzeczywistości. W ramach pracy nad rozprawą doktorską zaprojektowano i zaimplementowano prototyp narzędzia przeznaczonego do walidacji diagramów klas UML. Narzędzie w procesie walidacji wykorzystuje ontologie dziedzinowe wyrażone w OWL 2 w celu automatycznego rozpoznania czy narysowany diagram klas jest zgodny czy sprzeczny z wybraną przez użytkownika ontologią. Podczas prezentacji przedstawiona zostanie metoda walidacji, prototyp narzędzia oraz przykłady jego zastosowań.


Zastosowanie analitycznego procesu hierarchicznego do problemu selekcji usługi webowej z wykorzystaniem zmiennych losowych

Prezentujący: mgr inż. Aleksander Mariański, Politechnika Wrocławska

8 listopada 2017, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Analityczny proces hierarchiczny jest znaną, rozwijaną i szeroko stosowaną metodą podejmowania decyzji. W ramach pracy doktorskiej skonstruowano modułowy probabilistyczny analityczny proces hierarchiczny. Proces ten pozwala na podejmowanie decyzji w sytuacjach, gdzie istnieją dane statystyczne dotyczące wybranych kryteriów. Proces ten szczególnie można zastosować w problemach z dużą liczbą wariantów decyzyjnych oraz gdy wartości wybranych kryteriów wyraża się poprzez zmienne losowe. W prezentacji zostanie przedstawiona analiza literaturowa, opis probabilistycznego analitycznego procesu hierarchicznego, rozwiązanie problemu selekcji usługi webowej za pomocą procesu oraz inne możliwe zastosowania procesu w rzeczywistych problemach.


Inżynieria Wymagań 2.0: wyzwania i możliwości

Prezentujący: dr Krzysztof Wnuk, BTH, Sweden

12 kwietnia 2017, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Ta prezentacja analizuje zmiany, które nastąpiły w ostatnim dziesięcioleciu w dziedzinie analizy wymagań oraz definicji i zarządzania produktami software’owymi. Przeanalizujemy wyzwania oraz możliwości podjęcia tych wyzwań, zarówno przez naukowców jak i przemysł. Dyskusja skupi się na analizie informacji od użytkowników, ustalaniu odpowiedniej strategi współpracy w Ekosystemach software’owych, zrozumieniu kiedy wymagania stają się „nieaktualne” lub tracą swoją „innowacyjność”. Przeanalizujemy również nowe wyzwania w definiowaniu i realizacji wymagań nie-funkcjonalnych oraz ich wpływ na udaną realizację produktów software’owych. Prezentacja zakończy się dyskusją o modelach współpracy między przemysłem a uczelniami oraz sposobami na zacieśnienie tej współpracy.


Zastosowanie chmur obliczeniowych dla aplikacji naukowych

Prezentujący: dr inż. Maciej Malawski, Akademia Górniczo-Hutnicza w Krakowie

5 kwietnia 2017, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Współczesna nauka wymaga coraz więcej zasobów służących do obliczeń oraz przetwarzania i przechowywania danych. Chmury obliczeniowe, bazujące na wcześniejszych rozwiązaniach takich jak systemy rozproszone i środowiska gridowe, są potencjalnym źródłem zasobów dla tego typu aplikacji naukowych. Przykładami, na których skupia się praca są aplikacje komponentowe, aplikacje typu grafy zadań (workflow) i ich zespoły (ensemble), a także aplikacje typu bag-of-tasks. Zarządzanie zasobami w takim środowisku powinno uwzględniać takie czynniki jak wydajność i koszt, a także inne charakterystyki infrastruktury chmur, jak związane z nią opóźnienia, zmienność, podatność na awarie, ziarnistość dostępu do zasobów i ich rozliczania oraz sposób dostępu do danych. Głównymi osiągnięciami prac badawczych były m.in.: opracowanie modelu komponentowego do obliczeń naukowych w chmurach, opracowanie modeli aplikacji i infrastruktur dla hybrydowych chmur obliczeniowych, opracowanie modeli optymalizujących koszt wykonania aplikacji w chmurze, a także opracowanie nowych algorytmów dotyczących dostarczania zasobów i szeregowania zadań. Zaprezentowane zostaną również wyniki badań eksperymentalnych, w tym pomiar wydajności w chmurach, stworzenie symulatora dla zbiorów grafów zadań, potwierdzenie efektywności i wydajności modeli optymalizacyjnych oraz algorytmów w szerokim zakresie parametrów, a także uzyskanie charakterystyk kosztowo-wydajnościowych. Wyniki badań mogą prowadzić do lepszego zrozumienia działania i lepszego wykorzystania nowoczesnych zasobów obliczeniowych.

Slajdy z prezentacji

Metoda przedwdrożeniowego wymiarowania zmian oprogramowania wybranej klasy systemów ERP

Prezentujący: mgr inż. Przemysław Plecka, Politechnika Koszalińska

1 kwietnia 2017, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Znane metody szacowania kosztów oprogramowania ERP nie uwzględniają zebranego i kumulującego się doświadczenia płynącego z wcześniejszych wdrożeń. W tym kontekście, celem prowadzonych badań jest opracowanie nowej, konkurencyjnej metody wymiarowania zmian oprogramowania, gwarantującej dokładniejsze wyniki i nie kosztowniejszej w realizacji, niż inne aktualnie dostępne metody. W wyniku prowadzonych badań zdefiniowano metamodel parametrów wdrożenia wraz z operacjami, jakie można w nim przeprowadzić, na jego podstawie zdefiniowano model kosztów wdrożenia z rozmytymi właściwościami składowych – fuzzy OMKW, który spełnia w większym stopniu niż znane modele zakładane warunki jakości danych oraz określono autorską metodę szacowania kosztów wdrożenia – fuzzy SKW; wykorzystującą rozmyty model fuzzy OMKW. Przeprowadzono badania weryfikujące przydatność metody fuzzy SKW. Wyniki badań bezpośrednio potwierdzają realizację celu pracy.

Slajdy z prezentacji

Zastosowanie analizy statycznej kodu do wykrywania niespójności wzorców w kodzie źródłowym

Prezentujący: mgr inż. Tomasz Lewowski, Politechnika Wrocławska

11 stycznia 2017, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Statyczna analiza jest popularnym mechanizmem wykrywania potencjalnych defektów i nietypowych wzorców w kodzie źródłowym programu. Dotychczasowe badania w zakresie analizy statycznej skupiają się w większości na próbie dopasowywania znanych strukturalnych wzorców błędnego kodu do źródeł analizowanych aplikacji, analizie przepływu danych w celu wykrycia sytuacji anormalnych lub na w pełni sformalizowanym dowodzeniu własności programu.Zaprezentowana zostanie koncepcja heurystycznego zastosowania analizy statycznej w celu odkrycia niskopoziomowych założeń architektonicznych i konwencji programistycznych stosowanych w danym projekcie, które mogły zostać zagubione w czasie rozwoju aplikacji – na przykład z powodu zmian w zespole projektowym. Krótko przedstawione zostaną możliwe zastosowania narzędzia dostarczającego tego typu dane.


Paradygmat metamodelowania sterowanego kontekstem (CDMM-P)

Prezentujący: dr inż. Piotr Zabawa, Politechnika Krakowska

21 grudnia 2016, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: W odróżnieniu od powszechnie stosowanego w definiowaniu języków modelowania (w metamodelowaniu) paradygmatu klasowo-obiektowego, w którym wszystkie elementy metamodelu zdefiniowane są w czasie kompilacji (compile-time), prezentowany nowy paradygmat metamodelowania sterowanego kontekstem (CDMM-P) pozwala na definiowanie grafowego języka modelowania w czasie wykonania (run-time). Podejście to znacząco zwiększa swobodę w definiowaniu nowych języków modelowania, pozwala na kastomizację istniejących (np. UML), ułatwia wprowadzanie zmian do języków modelowania (własnych wcześniej zdefiniowanych), ułatwia przeprowadzanie procesu ewolucyjnego nadążania modelami za zmieniającym się metamodelem (evolutionary meta-modeling). Jako pierwsze, podejście to umożliwia generowanie w czasie wykonania narzędzia do sterowanego modelem generowania oprogramowania oraz jego zasobów – struktura tego narzędzia odzwierciedla strukturę metamodelu. W porównaniu ze standardami Object Management Group (www.omg.org) prezentowane podejście stanowi daleko idące ich uogólnienie, a standardy Model-Driven Architecture (MDA) są przykładem jednej z wielu możliwości zastosowań CDMM-P. Z punktu widzenia ontologii i jej standardów, takich jak RDF lub OWL prezentowane rozwiązanie wpisuje się w ontologie otwarte (jednak z restrykcjami na strukturę modelu wynikającymi ze struktury metamodelu), które wcześniej nie były wykorzystywane w inżynierii oprogramowania. Zastosowanie CDMM-P pozwala na pokonanie wielu współczesnych ograniczeń w metamodelowaniu, w tym wyeliminowanie bariery związanej z długotrwałym procesem standaryzowania w OMG uniemożliwiającym wykorzystywanie nowych technologii, długotrwały brak wsparcia narzędziowego (w podejściu Model-Driven Design) dla tych technologii, brak możliwości wprowadzania do metamodelu pojęć funkcjonujących obecnie jedynie jako koncepcje.o

Slajdy z prezentacji

Specyfikacje kontraktowe jako przedmiot badań

Prezentujący: dr hab. inż. Piotr Kosiuczenko, Wojskowa Akademia Techniczna

30 listopada 2016, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Języki kontraktowej specyfikacji, jak. np. JML i OCL, są szeroko znane i stosowane. Są też przedmiotem nauczania na kierunku informatyka. Mimo tego, ich podstawy, implementacja i zastosowania wciąż wymagają badań. W tym wystąpieniu przedstawimy wyniki naszych badań dotyczących specyfikacji kontraktowych. Omówimy pewne problemy związane z implementacją, w szczególności z implementacją operatora @pre i proponowane rozwiązanie. Powiemy o problemie specyfikacji części niezmienniczej w języku OCL. W tym wystąpieniu skoncentrujemy się na problemie wizualizacji specyfikacji kontraktowej za pomocą tzw. maszyn stanu języka UML i przedstawimy metodę syntezy maszyn stanów ze specyfikacji kontraktowych.


Behavioral Program Synthesis with Genetic Programming

Prezentujący: dr hab. inż. Krzysztof Krawiec, Politechika Poznańska

9 listopada 2016, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: A running program may exhibit complex behavior, not only in terms of the produced output, but also regarding the execution states it traverses. In program synthesis as practiced with conventional genetic programming, only a fraction of that behavior, usually compressed into a scalar fitness, is used to navigate the search space. This ‚evaluation bottleneck’ leaves a search algorithm underinformed about the actual and potential qualities of candidate programs. Behavioral program synthesis aims at providing search algorithms with richer information on a program’s operating characteristics, and so making them better informed and thus more efficient. In this talk, I will present the motivations and interesting features of the behavioral perspective, show how the existing approaches fit into it, and discuss the implications for program synthesis and automated design of algorithms.


Od koncepcji niematematycznych zarządzania do formalnych reprezentacji informacyjnych w systemach ERP

Prezentujący: dr hab. inż. Tadeusz Gospodarek, Wyższa Szkoła Bankowa we Wrocławiu

2 listopada 2016, godz. 13:15 - 15:00
Politechnika Wrocławska

Streszczenie: Modelowanie systemów informacyjnych wspomagających podejmowanie decyzji związanych z ekonomią lub zarządzaniem dotyczy równocześnie dwóch warstw logicznych. Z jednej strony konieczne jest stworzenie modelu semantycznego części ekonomicznej, który w sposób jednoznaczny pozwala utworzyć reprezentację numeryczną kryterium decyzyjnego lub informację syntetyczną. Równolegle konieczne jest utworzenie modeli informatycznych przetwarzania danych na różnych poziomach interoperacyjności. Obie, te procedury podlegają modelowaniu kaskadowemu, od modelu ontycznego do syntaktycznego. Najważniejszym problemem staje się uzyskanie interoperacyjności modeli na poziomie semantycznym. Najważniejszym problemem do rozwiązania na tym poziomie staje się uzyskanie równoważności semantycznej między modelem ekonomicznym i modelem IT. Przykładem takiego ujęcia są systemy ERP i stały problem z tym związany: czy to organizacja ma się dopasować do technologii IT, czy też odwrotnie? Część wykładu będzie poświęcona zagadnieniom dopasowania kultury organizacyjnej do poziomu technologii IT w kontekście modeli adaptatywnych na poziomie semantycznym.

Slajdy z prezentacji


Informacje dotyczące przeszłych seminariów można znaleźć pod tym adresem