TWOJA PRZEGLĄDARKA JEST NIEAKTUALNA.
Wykryliśmy, że używasz nieaktualnej przeglądarki, przez co nasz serwis może dla Ciebie działać niepoprawnie. Zalecamy aktualizację lub przejście na inną przeglądarkę.
Dziewięcioro naukowców z Politechniki Wrocławskiej otrzymało granty Narodowego Centrum Nauki w programach Opus i Preludium. Na realizację swoich projektów przyznano im w sumie 6,4 mln zł.
Sfinansowanie dodatkowych projektów badawczych w konkursach Opus 25 i Preludium 22 było możliwe dzięki zwiększeniu budżetu NCN przez Ministerstwo Nauki i Szkolnictwa Wyższego o 200 mln zł w 2024 roku.
Opus skierowany jest badaczek i badaczy pracujących w obszarze badań podstawowych. Jest przeznaczony dla wszystkich, niezależnie od wieku czy stażu naukowego. Natomiast w programie Preludium mogą wziąć osoby znajdujące się na początku drogi naukowej i bez stopnia naukowego doktora.
Pierwsze wyniki konkursów Opus 25 i Preludium 22 zostały ogłoszone w listopadzie 2023 roku. Wtedy na listach rankingowych w Opus znalazło się 176 projektów spośród 2 184 złożonych, zaś w Preludium – jedynie 231 wniosków spośród 2 153 złożonych. Dzięki zwiększeniu dofinansowania granty przyznano na kolejne 118 projektów w programie Opus i 130 w Preludium.
prof. Piotr Sobota (Wydział Chemiczny)
Naukowiec otrzymał grant w wysokości ponad 2,1 mln zł na realizację projektu „Projektowanie, synteza i zastosowanie heterometalicznych alkoksylanów do immobilizacji odpadów radioaktywnych w materiałach ceramicznych i szkło-ceramicznych”.
Współpracownikiem prof. Soboty przy realizacji grantu będzie dr hab. Rafał Petrus i jego doktoranci.
Badacz wraz z zespołem będzie dążył do opracowania nowych, efektywnych, wysoce wydajnych i opłacalnych ekonomicznie metod immobilizacji odpadów radioaktywnych poprzez ich wbudowanie i unieruchomienie w skali atomowej, w trwałych matrycach krystalicznych lub częściowo krystalicznych.
Wzorując się na występujących w naturze minerałach takich jak perowskit, cyrkonolit, kalcyryt, tausonit czy zeolity, naukowcy zaprojektowali heterometaliczne prekursory molekularne do wytwarzania matryc immobilizujących odpady radioaktywne. Ponieważ bezpieczna i skuteczna neutralizacja odpadów promieniotwórczych wymaga zastosowania matryc o ściśle określonych właściwościach fizykochemicznych, mechanicznych, stabilności i odporności na różne warunki otoczenia (temperatura, promieniowanie, ciśnienie, kwasowość/zasadowość) nasi naukowcy do ich wytwarzania wykorzystają komponenty, których formę końcową będą kształtować za pomocą odpowiednio zaprojektowanego heterometalicznego prekursora.
Istotnym aspektem projektu jest znalezienie zależności pomiędzy strukturą prekursora, a postacią matrycy zawierającej związane radionuklidy. Wyniki te będą niezbędne do określenia wpływu struktury prekursora na morfologię i właściwości formowanych materiałów kompozytowych, pozwalając na określenie zmiennych niezbędnych do skutecznej immobilizacji odpadów promieniotwórczych. Informacje te posłużą do znalezienia korelacji między strukturą prekursorów, a właściwościami materiałowymi matrycy.
dr hab. inż. Tomasz Grzebyk, prof. uczelni (Wydział Elektroniki, Fotoniki i Mikrosystemów)
Naukowiec otrzymał dofinansowanie w wysokości ponad 1,5 mln zł na projekt „Wewnętrzna jonizacja jako szansa na miniaturyzację kwadrupolowych spektrometrów mas”.
– W Katedrze Mikrosystemów od lat zajmujemy się miniaturyzacją wielu różnych instrumentów pomiarowych i analitycznych. Jednym z takich instrumentów jest spektrometr mas, czyli urządzenie służące do badania składu mieszanin gazowych. Bazuje ono na jonizacji próbki gazowej oraz na rozdzieleniu powstałych jonów w polu elektrycznym lub magnetycznym – mówi prof. Tomasz Grzebyk.
Tradycyjne spektrometry mas są dużymi i skomplikowanymi instrumentami laboratoryjnymi. Miniaturyzacja takich instrumentów daje możliwość wykonywania pomiarów poza laboratorium, co jest szczególnie ważne w miejscach niebezpiecznych oraz w eksploracji kosmosu, gdzie redukcja gabarytów i wagi przynosi radykalne obniżenie kosztów.
W ciągu ostatnich dziesięcioleci wiele osiągnięto w tej dziedzinie, opracowano walizkowe wersje spektrometrów mas, zastosowano technologię MEMS (micro-electro-mechanical system) do miniaturyzacji przynajmniej niektórych elementów MS. Jednak miniaturyzacja wiązała się zazwyczaj ze zmniejszeniem rozdzielczości, czułości czy zakresu analizowanych mas. W związku z tym wykorzystanie instrumentów kompaktowych było dotychczas ograniczone.
Dalszy rozwój jest możliwy, gdy parametry miniaturowej wersji spektrometru będą bardziej zbliżone do standardowego. Jednocześnie nie należy zwiększać złożoności całego instrumentu, zarówno pod względem podstawowych elementów, jak i elektroniki niezbędnej do jego działania, tak aby instrument mógł być stosunkowo tani w produkcji seryjnej i łatwy w obsłudze.
– Stosowane obecnie podejścia do miniaturyzacji zdały się osiągać swoje granice. Celem projektu jest przekroczenie tych granic, przy zachowaniu odpowiednio dobrych parametrów przyrządu. Chcemy to osiągnąć poprzez zastosowanie niestandardowych metod wewnętrznej jonizacji próbek gazów oraz alternatywnych technik analitycznych – wyjaśnia naukowiec.
W konwencjonalnych przyrządach jony są wprowadzane do analizatora jonów z pewnego rodzaju zewnętrznego źródła (działającego w oparciu o emisję polową, wyładowanie jarzeniowe, emisję termiczną itp.). Trudno ograniczyć energię takich jonów poniżej kilku eV, a to jest wymagane do uproszczenia układów elektronicznych, które zasilają i sterują całością.
– W podejściu zaproponowanym w naszym projekcie uważamy, że można to osiągnąć poprzez wykorzystanie tzw. jonizacji wewnętrznej, w której jony powstają bezpośrednio wewnątrz filtra jonów. W takim przypadku energie poprzeczne jonów są niezwykle niskie, ponieważ są one indukowane prawie wyłącznie przez siły ładunku przestrzennego wytwarzane przez same naładowane cząstki. Takie rozwiązanie, znane z niektórych pułapek jonowych, nie było dotychczas stosowane w spektrometrach mas. Daje to możliwość zmniejszenia wymiarów filtra (miniaturyzacja głowicy pomiarowej) i wykorzystania niższych częstotliwości i amplitud sygnałów sterujących (miniaturyzacja elektroniki) – tłumaczy prof. Tomasz Grzebyk.
Rezultat projektu doprowadzi do powstania nowego typu analizatorów masy, które będą hybrydą pomiędzy kwadrupolowymi analizatorami mas i pułapkami jonowymi, wykorzystując najlepsze cechy każdego z nich. I spowoduje dalszą miniaturyzację spektrometrów mas opracowanych dla nowych, pojawiających się zastosowań.
dr hab. inż. Tomasz Grzywny, prof. uczelni (Wydział Matematyki)
Badaczowi z Katedry Matematyki przyznano dofinansowanie w wysokości ponad 700 tys. zł na projekt „Ewolucje markowskie: rozkłady prawdopodobieństwa oraz ich zastosowania”, który będzie poświęcony badaniu rozkładów w niektórych ewolucjach Markowa i ich zastosowaniach w analizie i fizyce.
– W ramach tego tematu badawczego przeanalizujemy proces stochastyczny, który ewoluuje jak zadany proces Markowa pomiędzy sygnałami poissonowskim, a w momencie przyjścia kolejnego sygnału proces ulega częściowemu lub całkowitemu zresetowaniu (jego aktualne położenie jest pomnożone przez zadany współczynnik mniejszy niż 1) – mówi prof. Tomasz Grzywny.
Proces ten ma różne zastosowania, na przykład pojawia się jako skalowanie granicy płynności dla niektórych modeli kolejek (z dwumianowymi wskaźnikami katastrof) stosowanych w modelowaniu wzrostu populacji poddanej łagodnym katastrofom. Takie procesy można traktować jako szczególny przykład tzw. modelu szumu śrutowego, który jest wykorzystywany w modelach trzęsień ziemi i warstw materiału osadowego nagromadzonych w środowiskach depozycyjnych, ale nie poddanych późniejszej erozji. Może również modelować lawiny lub wyładowania neuronowe.
– W projekcie planujemy się skupić na analizowaniu tzw. zjawiska braku równowagi stanu stacjonarnego (NESS). Zjawisko to jest bardzo ważne w badaniu asymptotycznego zachowania ewolucji. Ponadto zamierzamy zbadać stabilność oszacowań gęstości przejścia pewnej klasy procesów Markowa na zaburzenia miary skoków. W szczególności planujemy sprawdzić stabilność podporządkowanego procesu Dunkla subordynatorem stabilnym – wyjaśnia naukowiec.
dr hab. inż. Mateusz Kwaśnicki, prof. uczelni (Wydział Matematyki)
Naukowiec z Katedry Matematyki otrzymał dofinansowanie w wysokości niemal 650 tys. zł na badania „Operatory ciągłe i dyskretne w teorii spektralnej oraz analizie harmonicznej”.
Projekt dotyczy dwóch obszarów matematyki, w których przypadek struktur ciągłych jest dość dobrze zbadany, natomiast teoria zmiennej dyskretnej ma wiele luk. Pierwsza część związana jest z teorią spektralną operatorów Toeplitza, czyli (skończonych lub nieskończonych) macierzy postaci (ai – j).
– Jednym z badanych zagadnień będzie hipoteza Widoma, dotycząca warunków zbieżności wartości własnych skończonych macierzy Toeplitza do widma macierzy nieskończonych. Uzyskane rezultaty planujemy zastosować w badaniu błądzeń losowych – mówi prof. Mateusz Kwaśnicki.
Drugi temat projektu to oszacowanie norm operatorów całek singularnych i ich dyskretyzacji, czyli badanie podstawowych obiektów w analizie harmonicznej. Wykorzystane metody będą rozwinięciem probabilistycznej techniki opracowanej we współpracy z Rodrigiem Bañuelosem z Purdue University na potrzeby analizy dyskretnej transformaty Hilberta.
– Pytania podnoszone w ramach projektu są częścią bardzo aktywnych dziedzin matematyki teoretycznej. Oczekujemy, że wyniki projektu znacząco poszerzą naszą wiedzę w zakresie teorii spektralnej operatorów nienormalnych i poprawią nasze rozumienie wzajemnych związków między dyskretną i ciągłą analizą harmoniczną, a być może otworzą też nowe kierunki badań – podkreśla naukowiec.
dr inż. Edyta Dyguda-Kazimierowicz (Wydział Chemiczny)
Badaczce z Instytutu Materiałów Zaawansowanych przyznano grant w wysokości ponad 500 tys. zł na projekt „Nowe zastosowania niekonwencjonalnej metodologii nieempirycznej w analizie katalitycznych i inhibicyjnych właściwości biocząsteczek”.
Współcześnie stosowane metody projektowania nowych katalizatorów lub inhibitorów pomimo wykorzystywania bardzo kosztownych obliczeń wciąż nie są efektywne i nie umożliwiają pełnego zrozumienia mechanizmu badanych procesów, niezbędnego do osiągnięcia pożądanych efektów.
– Celem projektu jest doskonalenie i testowanie rozwijanych w naszym zespole alternatywnych niekonwencjonalnych metod opartych na teorii oddziaływań międzycząsteczkowych w oparciu o pierwsze zasady mechaniki kwantowej – mówi dr inż. Edyta Dyguda-Kazimierowicz. – Kluczowym elementem naszej metodologii jest koncepcja statycznego i dynamicznego pola katalitycznego, która polega na określeniu statycznego rozkładu ładunków idealnego katalizatora, względnie jego dynamiki drogą kwantowo-chemicznych obliczeń potencjałów elektrostatycznych lub pól elektrycznych dla stanu przejściowego i substratów reakcji – dodaje.
Dzięki zastosowaniu takiego podejścia „bottom-up”, naukowcy mogą analizować i konstruować optymalne otoczenie katalityczne, nie polegając na licznych arbitralnych założeniach, które często są konieczne w konwencjonalnych metodach „top-down”, uwzględniających cały złożony układ enzymatyczny, składający się z tysięcy atomów.
– Wyniki naszych badań są ważne dla rozwoju metod projektowania enzymów i leków. Ustalenie znaczenia kowalencyjnego wiązania stanu przejściowego z centrum aktywnym dla aktywności katalitycznej enzymów może pozwolić na zrozumienie mechanizmów katalizy najbardziej wydajnych enzymów, co umożliwi udoskonalenie metod projektowania enzymów de novo, poprzez wskazanie tych cech enzymów, które nie mogą zostać pominięte w procesie projektowania – tłumaczy badaczka. – Identyfikacja sekwencji DNA, które zwiększają ryzyko mutacji związanej z deaminacją cytozyny, może być istotna dla zrozumienia mutacji genetycznych oraz diagnostyki i profilaktyki w onkologii. Wykazanie skuteczności naszego modelu niempirycznego MED w wyborze optymalnego sposobu wiązania białko-ligand znacząco poprawi jakość wyników dokowania w procesie projektowania leków.
dr hab. inż. Liliana Hawrysz, prof. uczelni (Wydział Zarządzania)
Badaczka z Katedry Systemów Zarządzania i Rozwoju Organizacji otrzymała grant w wysokości ponad 450 tys. zł na realizację projektu „Opracowanie modelu pomiaru jakości podstawowej opieki zdrowotnej w oparciu o cztery wymiary (pierwszy kontakt, koordynacja, kompleksowość, ciągłość(4Cs)) i jego weryfikacja wśród pacjentów przewlekle chorych z chorobami współistniejącymi”.
Jednym z największych wyzwań społecznych i gospodarczych, przed jakimi stoi Unia Europejska, jest starzenie się jej populacji wraz z ogólnym wzrostem częstości występowania chorób przewlekłych. Światowa Organizacja Zdrowia szacuje, że 10% wzrost zachorowań na choroby przewlekłe wiąże się z redukcją rocznego wzrostu gospodarczego o 0,5%. Szacuje się, że w najbliższych latach zachorowalność na choroby przewlekłe będzie gwałtownie wzrastać, zarówno ze względu na proces starzenia się ludności świata, jak i wydłużenie życia osób z chorobami przewlekłymi
– Problem chorób przewlekłych dotyczy 12,9% populacji osób dorosłych i 95,1% populacji osób w wieku 85 lat i więcej. Jednym z głównych mankamentów postępowania z chorobami przewlekłymi i współistniejącymi jest niska jakość podstawowej opieki zdrowotnej wynikająca z braku koordynacji, kompleksowości, ciągłości opieki medycznej oraz odpowiedniej interakcji na poziomie lekarza pierwszego kontaktu – mówi prof. Liliana Hawrysz. – Zapewnienie odpowiedniej jakości podstawowej opieki zdrowotnej dla pacjentów przewlekle chorych staje się szczególnie istotną kwestią dla wszystkich systemów opieki zdrowotnej i gospodarek, dla świadczeniodawców opieki zdrowotnej we wszystkich miejscach i na wszystkich etapach życia – dodaje.
Celem projektu jest opracowanie i weryfikacja modelu pomiaru jakości podstawowej opieki zdrowotnej opartego na 4Cs. Model ten mógłby służyć do analizy wpływu tej jakości na wyniki zdrowotne i ekonomiczne leczenia pacjentów przewlekle chorych ze schorzeniami współistniejącym. Szczególna uwaga zostanie również zwrócona na te mechanizmy kształtujące jakość podstawowej opieki zdrowotnej w oparciu o 4Cs, które nie były uwzględniane we wcześniejszych badaniach – możliwości technologiczne.
– Wyniki badań będą mogły stanowić podstawę do opracowania zaleceń dotyczących doskonalenia całego systemu opieki nad pacjentem przewlekle chorym ze schorzeniami współistniejącym. Wiedza ta powinna również stanowić istotny impuls do dalszej transformacji cyfrowej podmiotów opieki zdrowotnej oraz koncepcji rozwoju obszarów wiejskich z wykorzystaniem technologii cyfrowych wspierających opiekę medyczną nad pacjentami przewlekle chorymi z chorobami współistniejącymi – podkreśla badaczka.
inż. Jakub Pawłowski (Wydział Podstawowych Problemów Techniki)
Otrzymał grant w wysokości ponad 160 tys. zł na projekt „Układy kwantowe blisko całkowalności”.
Jednym z najczęściej dyskutowanych problemów współczesnej fizyki kwantowych układów wielu ciał jest pytanie, czy typowy, izolowany układ kwantowy ulega termalizacji, tzn. jest w stanie i będzie „zapominał” o swoim początkowym, nierównowagowym stanie.
– To z pozoru proste pytanie niesie ze sobą głębokie konsekwencje, ponieważ termalizacja jest równoznaczna z utratą informacji kwantowej i dekoherencją, o której od dawna wiadomo, że jest jedną z największych przeszkód na drodze do funkcjonalnego i skalowalnego komputera kwantowego – wyjaśnia Jakub Pawłowski. – Zrozumienie tego zjawiska jest pierwszym krokiem do kontrolowania go, a być może do stworzenia bardzo pożądanych, odpornych na zaburzenia układów, które nie wykazują takiego zachowania – dodaje.
Obecne rozumienie termalizacji w takich układach oparte jest na tzw. hipotezie termalizacji poprzez stany własne (ETH, ang. Eigenstate Thermalization Hypothesis), która wiąże własności mierzalnych wielkości po długim czasie, z przewidywaniami mechaniki statystycznej. Jak dotąd nie ma jednak rygorystycznego dowodu na słuszność ETH w ogólności, więc naukowcy muszą polegać głównie na obliczeniach numerycznych.
– W moim projekcie planuję podejść do tego zagadnienia od drugiej strony, skupiając się na klasie tzw. układów całkowalnych, o których wiemy, że nie spełniają ETH, i w których termalizacja jest zatrzymana. Niestety, ścisła całkowalność jest własnością bardzo wrażliwą na zaburzenia i tym samym trudną do realizacji w eksperymencie. Tym samym istotne jest teoretyczne zrozumienie układów uwzględniających obecność jakiegoś słabego zaburzenia, czyli tzw. układów blisko całkowalności – tłumaczy Jakub Pawłowski. – W szczególności interesują mnie skale czasowe, na których fizycznie istotne wielkości w takich układach termalizują. Ma to związek z pytaniem, będącym jedną z motywacji tego projektu: czy możemy zapewnić, że termalizacja jest wystarczająco spowolniona, by umożliwić praktyczne zastosowania?
mgr inż. Mateusz Krzysztofiak (Wydział Elektryczny)
Otrzymał dofinansowanie w wysokości niemal 140 tys. zł na realizacje projektu „Modelowanie i diagnostyka łożysk tocznych stosowanych w silnikach synchronicznych z magnesami trwałymi”.
Silniki synchroniczne z magnesami trwałymi (PMSM) są coraz częściej wykorzystywane dzięki swojej wysokiej sprawności i niezawodności. Jednak ich łożyska toczne, według statystyk, często ulegają uszkodzeniom, co może prowadzić do poważnych awarii oraz przestojów zespołów napędowych.
– Aby zapobiec takim problemom oraz przewidzieć zachowanie się napędu podczas postępującego uszkodzenia, wykorzystuje się symulacje i modele matematyczne do poszukiwania symptomów oraz diagnozowania uszkodzeń łożysk. Wspomniane modele, bazują na równaniach fizycznych, umożliwiają dokładną analizę różnych rodzajów uszkodzeń oraz zrozumienie mechanizmów ich powstawania – mówi Mateusz Krzysztofiak.
Celem projektu jest opracowanie i weryfikacja takich modeli, aby umożliwić wczesne wykrywanie uszkodzeń. Ponadto zostanie zwrócona uwaga na układ sterowania oraz możliwe metody diagnozowania z wykorzystaniem sygnałów wewnątrz struktury. Dzięki tym badaniom będzie można rozwijać aktualne metody diagnozowania łożysk w czasie rzeczywistym i zapobiegać przyszłym awariom.
mgr inż. Mateusz Kuniej (Wydział Podstawowych Problemów Techniki)
Badaczowi z W11 przyznano grant w wysokości ponad 136 tys. zł na projekt „Hybrydowa kontrola kwantowa w pojedynczych układach w ciele stałym”.
– W ramach projektu zaproponujemy nowe metody kontroli kwantowych bitów zrealizowanych przy użyciu spinu elektronu oraz elektronów oddziałujących z dziurami, czyli brakiem elektronu w miejscu, gdzie powinien się znajdować – wyjaśnia mgr inz. Mateusz Kuniej. – Połączymy pobudzanie laserem z modulacją („trzęsieniem”) stanów w kropce kwantowej za pomocą fal akustycznych.
Badania wymagać będą wyprowadzeń analitycznych oraz końcowych obliczeń numerycznych przy użyciu wysokowydajnych komputerów. Pozwoli to ocenić jak bardzo precyzyjna kontrola jest możliwa, oraz jak bardzo otoczenie kropki kwantowej wpływa na skuteczność zaproponowanych przez nas metod.
– Dalekosiężnym celem jest umożliwienie komunikacji kwantowych bitów za pomocą fal akustycznych, co pozwoli na miniaturyzację docelowych urządzeń – dodaje.
mic
Nasze strony internetowe i oparte na nich usługi używają informacji zapisanych w plikach cookies. Korzystając z serwisu wyrażasz zgodę na używanie plików cookies zgodnie z aktualnymi ustawieniami przeglądarki, które możesz zmienić w dowolnej chwili. Ochrona danych osobowych »