About:
Created by
danek
Document
Last modified:
2017-04-12
State
visible
|
Projects
|
Projekty wakacyjne, dla stypendystów i innych wolontariuszy
Ponieważ dostajemy ostatnio sporo zapytań dotyczących możliwości realizacji praktyk wakacyjnych w naszej pracowni oraz innej współpracy z ochotnikami, na tej stronie umieszczamy krótki przegląd projektów realizowanych w naszej pracowni albo czekających na realizację. Projekty te są w różnej fazie rozwoju, ale wiele z nich może być punktem wyjścia do prac licencjackich czy magisterskich. Osoby zainteresowane udziałem w jednym z projektów powinny się kontaktować z prof. Wójcikiem.
- 3dBAR (Piotrek, Kuba, Jaś, Daniel) - infrastruktura do tworzenia i udostępniania trójwymiarowych atlasów mózgów. Program ofline, usługa. Projekt w fazie bardzo zaawansowanej. Typowe możliwości rozwoju: przetworzenie dodatkowych zestawów danych do umieszczenia w repozytorium (napisanie parsera, wyczyszczenie danych), ewentualnie rozwój programu lub serwisu jeżeli ktoś ma własne pomysły i umiejętności - do uzgodnienia z Piotrem. Obecnie (22.5.2013) dwa atlasy z Allen Brain Institute czekają na przetworzenie.
Drugi projekt: w 3dBARze można by zmienić sposób wykonywania rekonstrukcji kilku
niekompozytowych struktur, najlepiej w sposób "inteligentny".
W tej chwili dla każdej struktury wywoływany jest osobno rekonstruktor,
który za każdym razem musi wczytać atlas, przygotować ewentualny
'outline' i dopiero może przystąpić do działania.
Teoretycznie można ten proces przyspieszyć: rekonstruktor ma
(praktycznie) możliwość generowania wielu niekompozytowych struktur za
jednym zamachem. Jedyne co trzeba by było zrobić, to zmienić sposób jego
wywoływania. Wywoływać rekonstruktor można też by było "inteligentnie"
- np. uruchamiając tyle zleceń rekonstrukcji, ile jest aktualnie wolnych
węzłów obliczeniowych.
Narzędzia: Python, 3dBAR. -
Badanie
algorytmów rekonstrukcji obrazów 3D na podstawie serii obrazów. Projekt o wysokim
priorytecie, przy dużym
zaangażowaniu praktykanta istnieje
możliwość udziału w publikacji naukowej.
Opis projektu:
Projekt
łączący analizę danych oraz inżynierię oprogramowania.
Celem jest
systematyczne zbadanie
algorytmów używanych do
rekonstrukcji obrazów 3D z danych 2D stosowanych
w różnego rodzaju przedsięwzięciach
realizowanych w Pracowni Neuroinformatyki, np.:
- http://www.frontiersin.org/Community/AbstractDetails.aspx?ABS_DOI=10.3389/conf.fninf.2013.09.00122&eid=1904&sname=Neuroinformatics_2013
- http://www.frontiersin.org/10.3389/conf.fninf.2013.10.00026/event_abstract
- https://www.youtube.com/watch?v=rOxtmoQpwbY&fmt=22&hd=1
- https://www.youtube.com/watch?v=kbXB3Y4DJrk&fmt=22&hd=1
- https://dl.dropboxusercontent.com/u/5284815/poster_sztokholm_0.png
Projekt będzie polegał
na przygotowaniu danych testowych oraz wykorzystaniu ich do badania
algorytmów rekonstrukcji obrazów
3D z danych 2D a następnie
przygotowaniu raportu z przeprowadzonych
obliczeń testowych.
Parametry ustalone w wyniku
testów zostaną następnie użyte do przetworzenia
przykładowego, pojedynczego zbioru danych.
Ostatnim elementem będzie opisanie przeprowadzonych obliczeń w
formie tutoriala.
Przydatne umiejętności:
- Znajomość
Pythona,
NumPy, SQL,
BASHa
na pewno będzie pomocna.
Czego możesz się
nauczyć?
Analizy
danych przy pomocy Pythona,
NumPy,
SQLa,
BASHa,
Przetwarzania
dwu- oraz trójwymiarowych obrazów cyfrowych,
Podstawowych
informacji o budowie mózgów różnych gatunków zwierząt oraz
człowieka,
Narzędzi
kontroli wersji (Git,
GitHub),
Przygotowywania
oprogramowania OpenSource oraz
związanych z tym tzw.
dobrych zwyczajów (good
practices)
Tworzenia testów
jednostkowych (http://en.wikipedia.org/wiki/Unit_testing,
Python DocTest)
oraz wykorzystywania
ich w tzw. ciągłej integracji projektów (np.
http://en.wikipedia.org/wiki/Continuous_integration,
https://travis-ci.org/)
Narzędzia do
tworzenia dokumentacji Sphinx (http://sphinx-doc.org/)
Wykorzystania
narzędzi do dystrybucji pakietów przygotowanych w języku Python
(distutils, seetuptools)
Implementacja
algorytmu do pomiaru kształtów struktur mózgowych w oparciu
o równanie Laplace'a
Opis projektu:
Celem projektu jest implementacja algorytmu do
pomiaru kształtu (w szczególności grubości) różnych struktur
mózgowych opartego na numerycznym rozwiązaniu równania Laplace'a.
Proponowana metoda to modyfikacja algorytmu opisanego w [1]
umożliwiająca pomiary nie tylko do danych pochodzących z
obrazowania ludzi, lecz również dla obrazowania małych zwierząt
laboratoryjnych oraz innych zastosowań neuroanatomii obliczeniowej.
Projekt składa się z następujących 4 etapów:
1. Implementacja oraz testowanie numerycznego
rozwiązania równania Laplace'a dla przypadku dwu- oraz
trójwymiarowego.
2. Zastosowanie rozwiązania równania Laplace'a do
pomiaru kształtów struktur mózgu,
3. Badanie implementacji na danych testowych,
4. Przygotowanie oprogramowania umożliwiającego
korzystanie z zaimplementowanej metody przez użytkowników
końcowych.
Przydatne umiejętności:
Python,
NumPy,
Znajomość
metod numerycznych rozwiązywania równania Laplace'a,
Umiejętność
metody całkowania numerycznego metodą Runge-Kutta,
Elementarna
wiedza o cyfrowym przetwarzaniu obrazów (operacja splotu, gradient,
pole wektorowe, itp.)
Czego możesz się
nauczyć?
Podstawowych
informacji o budowie mózgów różnych gatunków zwierząt oraz
człowieka,
Narzędzi
do wizualizacji danych trójwymiarowych (np. Visualization
Toolkit, http://www.vtk.org/)
[1]
Jones, S. E., Buchbinder, B. R., & Aharon, I. (2000).
Three-dimensional mapping of cortical thickness using Laplace’s
Equation. Human Brain Mapping,
http://www.stat.wisc.edu/~mchung/teaching/MIA/reading/SBM.thickness.laplace.2000.pdf
- Brain slices (Kuba, Jaś, Piotrek, Daniel) - repozytorium cyfrowych reprezentacji skrawków mózgów. Projekt rozwijany. W ramach Google Summer of Code zaproponowaliśmy upload plików i edytor obrazów zintegrowany z bazą. Ten drugi projekt może być wart eksploracji jako mały projekt wakacyjny. Trochę więcej szczegółów. Narzędzia: Python, JavaScript
- Opossum brain atlas (Piotr, Natalia Chłodzińska, Krzysztof Turlejski, Daniel) - pracujemy nad trójwymiarowym wielomodalnym atlasem mózgu oposa (plakat). Rozwijany przez nas zestaw narzędzi do integracji danych wielomodalnych o różnych zniekształceniach (skrawki mózgu barwione różnymi metodami, blockface, MRI) może być stosowany w innych projektach tego typu. Niewykluczone, że coś się znajdzie i tutaj, np testowanie nowych metod dopasowywania danych. Narzędzia: Python, ITK, Ants.
- CSD (Jaś, Szymon, Daniel) - Kiedy do mózgu wsadzamy elektrodę rejestrujemy potencjał zewnątrzkomórkowy. Generują go prądy jonowe przepływające przez błonę komórkową wszystkich neuronów. Wygładzoną gęstość tych prądów w tkance nazywamy gęstością źródeł prądowych (ang. Current Source Density, CSD). Ponieważ potencjał jest nielokalny a CSD lokalne, rozwijamy metody rekonstrukcji źródeł na podstawie potencjałów, Nasze metody: iCSD, kCSD, są zaimplementowane w Matlabie. Mają użyteczną funkcjonalność, ale można je usprawnić. Np. metoda kCSD w 1D potrzebuje wizualizacji, a także automatycznego doboru parametrów w duchu wersji 2D. Wersja 3D, najprostsza, w ogóle nie jest napisana, itd. Przydałyby się narzędzia do generacji źródeł do celów testowych. Rozwój tych skryptów to dość dobrze zdefiniowany i prosty projekt. Proste praktyczne zadanie: znaleźć wkład kory do potencjałów we wzgórzu na podstawie dostępnych rejestracji (z Ewą Kublik).
Kolejnym krokiem jest dalszy rozwój skryptów tak, żeby można było analizować duże zestawy danych (np. z macierzy elektrod o 10 tys. kontaktów). To już trudniejsze. Warto zbadać inne bazy źródeł, np falkowe. Narzędzia: Matlab, kCSD
- Symulacje układu nerwowego (Hela, Jacek, Chaitanya, Szymon) - prowadzimy kilka projektów symulacyjnych. Jednym ciekawym projektem jest eksploracja narzędzi do automatycznej generacji modeli komórek zgodnych z zadanym typem morfologicznym (np. komórki piramidalne konkretnej warstwy, komórki gwieździste, itd). Narzędzia: Matlab, TREES, inne
- Analiza danych elektrofizjologicznych (Jaś, Szymon, Daniel) - Mamy kilka zestawów danych od kolegów, które czekają na porządną analizę. W tym:
- Dane Luki Berdondiniego - skrawki korowo-hipokampalne na macierzy 4096 elektrod
- Dane Andreasa Hierlemanna - siatkówka na macierzy 11 tys. elektrod
- Dane Andrew Jacksona - rejestracje z kory motorycznej przy użyciu różnych konfiguracji elektrod in vivo u małpy w trakcie konkretnych manipulacji.
- Dane Marka Hunta - rejestracje u swobodnie biegających szczurów, modeli schizofrenii. Zadanie: zbadać anomalną propagację w tkance wysokich częstości generowanych w NAc
Narzędzia: Matlab, kCSD
- modelowanie LFP w NAc (Daniel, Szymon) - projekt częściowo wykonany. Należy zbadać własności potencjału generowanego przez komórki NAc. Komórki te mają nietypową geometrię. Generacja potencjału pojedynczej komórki jest pod kontrolą, trzeba ogarnąć populację i zbadać jak ten potencjał zanika z odległością dla różnych rozkładów komórek w przestrzeni, dla różnego stopnia korelacji wejść synaptycznych, itd Narzędzia: Python, LFPy, Neuron
- wokalizacja gryzoni (Daniel, Kuba Filipkowski, Paweł Boguszewski) opis Na początek trzeba napisać prostą aplikację w Pythonie pozwalająca na łatwą wizualizację danych (surowy sygnał + sonogram), następnie automatyczna segmentacja na elementarne "fonemy", potem klasyfikacja i korelacja z zachowaniem. Narzędzia: Python
- zachowanie myszy (Szymon, Kuba, Daniel) - analiza danych i modelowanie. Analizujemy dane behawioralne grup myszy żyjących w inteligentnych klatkach IntelliCage. Każda mysz ma wszczepiony transponder, który pozwala na śledzenie, która mysz kiedy weszła do którego rogu. Rogi są programowalne i pozwalają na badanie ciekawych aspektów uczenia indywidualnego i społecznego dzięki testowaniu myszy w grupach. Na podstawie takich danych budujemy probabilistyczne modele uczenia. Badane są różne szczepy, różne paradygmaty doświadczalne. Narzędzia: Python.
- Efficient processing of large data generated in detailed biophysical
neural simulations (Chaitanya).
In detailed biophysical neural simulations, large data is accumulated over the course of a simulation. The data corresponds to trans membrane currents or membrane potentials in individual compartments over time. In a typical simulation of 100 milli seconds, 10's of gigabytes of data in binary form is generated. We have developed a format called, NSDF (Neuroscience Simulation Data Format), based on HDF5 implementation to store and retrieve such simulation data effectively. In this project the student will explore, a browser based interaction with such a file, to display the contents in a usable way. The student can also write a plugin for vtk / paraview like visualizers to visualize the simulation on realistic neuron morphologies.
|
|