Skip to content
 

Home News Data Software Models Articles Search Help
    You are not logged in Log in Feedback
You are in: home » Members » danek's Home » Laboratory of Neuroinformatics » Projects


 
About:
Created by
danek
Document Document
Last modified:
2017-04-12
State
visible
Sign in
User name

Password

 

Projects

Home
People
Research
Teaching
Publications
Collaborators
Funding
Software
Jobs
Gallery
Contact
Projekty wakacyjne, dla stypendystów i innych wolontariuszy

Ponieważ dostajemy ostatnio sporo zapytań dotyczących możliwości realizacji praktyk wakacyjnych w naszej pracowni oraz innej współpracy z ochotnikami, na tej stronie umieszczamy krótki przegląd projektów realizowanych w naszej pracowni albo czekających na realizację. Projekty te są w różnej fazie rozwoju, ale wiele z nich może być punktem wyjścia do prac licencjackich czy magisterskich. Osoby zainteresowane udziałem w jednym z projektów powinny się kontaktować z prof. Wójcikiem.
  1. 3dBAR​ (Piotrek, Kuba, Jaś, Daniel) - infrastruktura do tworzenia i udostępniania trójwymiarowych atlasów mózgów. Program ofline, usługa. Projekt w fazie bardzo zaawansowanej. Typowe możliwości rozwoju: przetworzenie dodatkowych zestawów danych do umieszczenia w repozytorium (napisanie parsera, wyczyszczenie danych), ewentualnie rozwój programu lub serwisu jeżeli ktoś ma własne pomysły i umiejętności - do uzgodnienia z Piotrem. Obecnie (22.5.2013) dwa atlasy z Allen Brain Institute czekają na przetworzenie.

    Drugi projekt: w 3dBARze można by zmienić sposób wykonywania rekonstrukcji kilku niekompozytowych struktur, najlepiej w sposób "inteligentny". W tej chwili dla każdej struktury wywoływany jest osobno rekonstruktor, który za każdym razem musi wczytać atlas, przygotować ewentualny 'outline' i dopiero może przystąpić do działania. Teoretycznie można ten proces przyspieszyć: rekonstruktor ma (praktycznie) możliwość generowania wielu niekompozytowych struktur za jednym zamachem. Jedyne co trzeba by było zrobić, to zmienić sposób jego wywoływania. Wywoływać rekonstruktor można też by było "inteligentnie" - np. uruchamiając tyle zleceń rekonstrukcji, ile jest aktualnie wolnych węzłów obliczeniowych.

    Narzędzia: Python, 3dBAR.
  2. Badanie algorytmów rekonstrukcji obrazów 3D na podstawie serii obrazów. Projekt o wysokim priorytecie, przy dużym zaangażowaniu praktykanta istnieje możliwość udziału w publikacji naukowej.

    Opis projektu: Projekt łączący analizę danych oraz inżynierię oprogramowania. Celem jest systematyczne zbadanie algorytmów używanych do rekonstrukcji obrazów 3D z danych 2D stosowanych w różnego rodzaju przedsięwzięciach realizowanych w Pracowni Neuroinformatyki, np.:
    1. http://www.frontiersin.org/Community/AbstractDetails.aspx?ABS_DOI=10.3389/conf.fninf.2013.09.00122&eid=1904&sname=Neuroinformatics_2013
    2. http://www.frontiersin.org/10.3389/conf.fninf.2013.10.00026/event_abstract
    3. https://www.youtube.com/watch?v=rOxtmoQpwbY&fmt=22&hd=1
    4. https://www.youtube.com/watch?v=kbXB3Y4DJrk&fmt=22&hd=1
    5. https://dl.dropboxusercontent.com/u/5284815/poster_sztokholm_0.png
    Projekt będzie polegał na przygotowaniu danych testowych oraz wykorzystaniu ich do badania algorytmów rekonstrukcji obrazów 3D z danych 2D a następnie przygotowaniu raportu z przeprowadzonych obliczeń testowych. Parametry ustalone w wyniku testów zostaną następnie użyte do przetworzenia przykładowego, pojedynczego zbioru danych. Ostatnim elementem będzie opisanie przeprowadzonych obliczeń w formie tutoriala. Przydatne umiejętności:
    • Znajomość Pythona, NumPy, SQL, BASHa na pewno będzie pomocna.
    Czego możesz się nauczyć?
    • Analizy danych przy pomocy Pythona, NumPy, SQLa, BASHa,

    • Przetwarzania dwu- oraz trójwymiarowych obrazów cyfrowych,

    • Podstawowych informacji o budowie mózgów różnych gatunków zwierząt oraz człowieka,

    • Narzędzi kontroli wersji (Git, GitHub),

    • Przygotowywania oprogramowania OpenSource oraz związanych z tym tzw. dobrych zwyczajów (good practices)

    • Tworzenia testów jednostkowych (http://en.wikipedia.org/wiki/Unit_testing, Python DocTest)

    • oraz wykorzystywania ich w tzw. ciągłej integracji projektów (np. http://en.wikipedia.org/wiki/Continuous_integration, https://travis-ci.org/)

    • Narzędzia do tworzenia dokumentacji Sphinx (http://sphinx-doc.org/)

    • Wykorzystania narzędzi do dystrybucji pakietów przygotowanych w języku Python (distutils, seetuptools)

  3. Implementacja algorytmu do pomiaru kształtów struktur mózgowych w oparciu o równanie Laplace'a

    Opis projektu:

    Celem projektu jest implementacja algorytmu do pomiaru kształtu (w szczególności grubości) różnych struktur mózgowych opartego na numerycznym rozwiązaniu równania Laplace'a. Proponowana metoda to modyfikacja algorytmu opisanego w [1] umożliwiająca pomiary nie tylko do danych pochodzących z obrazowania ludzi, lecz również dla obrazowania małych zwierząt laboratoryjnych oraz innych zastosowań neuroanatomii obliczeniowej.

    Projekt składa się z następujących 4 etapów:

    1. Implementacja oraz testowanie numerycznego rozwiązania równania Laplace'a dla przypadku dwu- oraz trójwymiarowego.

    2. Zastosowanie rozwiązania równania Laplace'a do pomiaru kształtów struktur mózgu,

    3. Badanie implementacji na danych testowych,

    4. Przygotowanie oprogramowania umożliwiającego korzystanie z zaimplementowanej metody przez użytkowników końcowych.

    Przydatne umiejętności:

    • Python, NumPy,

    • Znajomość metod numerycznych rozwiązywania równania Laplace'a,

    • Umiejętność metody całkowania numerycznego metodą Runge-Kutta,

    • Elementarna wiedza o cyfrowym przetwarzaniu obrazów (operacja splotu, gradient, pole wektorowe, itp.)

    Czego możesz się nauczyć?

    • Przetwarzania dwu- oraz trójwymiarowych obrazów cyfrowych,

    • Podstawowych informacji o budowie mózgów różnych gatunków zwierząt oraz człowieka,

    • Narzędzi do wizualizacji danych trójwymiarowych (np. Visualization Toolkit, http://www.vtk.org/)

    [1] Jones, S. E., Buchbinder, B. R., & Aharon, I. (2000). Three-dimensional mapping of cortical thickness using Laplace’s Equation. Human Brain Mapping, http://www.stat.wisc.edu/~mchung/teaching/MIA/reading/SBM.thickness.laplace.2000.pdf

  4. Brain slices (Kuba, Jaś, Piotrek, Daniel) - repozytorium cyfrowych reprezentacji skrawków mózgów. Projekt rozwijany. W ramach Google Summer of Code zaproponowaliśmy upload plików i edytor obrazów zintegrowany z bazą. Ten drugi projekt może być wart eksploracji jako mały projekt wakacyjny. Trochę więcej szczegółów. Narzędzia: Python, JavaScript
  5. Opossum brain atlas (Piotr, Natalia Chłodzińska, Krzysztof Turlejski, Daniel) - pracujemy nad trójwymiarowym wielomodalnym atlasem mózgu oposa (plakat). Rozwijany przez nas zestaw narzędzi do integracji danych wielomodalnych o różnych zniekształceniach (skrawki mózgu barwione różnymi metodami, blockface, MRI) może być stosowany w innych projektach tego typu. Niewykluczone, że coś się znajdzie i tutaj, np testowanie nowych metod dopasowywania danych. Narzędzia: Python, ITK, Ants.
  6. CSD (Jaś, Szymon, Daniel) - Kiedy do mózgu wsadzamy elektrodę rejestrujemy potencjał zewnątrzkomórkowy. Generują go prądy jonowe przepływające przez błonę komórkową wszystkich neuronów. Wygładzoną gęstość tych prądów w tkance nazywamy gęstością źródeł prądowych (ang. Current Source Density, CSD). Ponieważ potencjał jest nielokalny a CSD lokalne, rozwijamy metody rekonstrukcji źródeł na podstawie potencjałów, Nasze metody: iCSD, kCSD, są zaimplementowane w Matlabie. Mają użyteczną funkcjonalność, ale można je usprawnić. Np. metoda kCSD w 1D potrzebuje wizualizacji, a także automatycznego doboru parametrów w duchu wersji 2D. Wersja 3D, najprostsza, w ogóle nie jest napisana, itd. Przydałyby się narzędzia do generacji źródeł do celów testowych. Rozwój tych skryptów to dość dobrze zdefiniowany i prosty projekt. Proste praktyczne zadanie: znaleźć wkład kory do potencjałów we wzgórzu na podstawie dostępnych rejestracji (z Ewą Kublik).

    Kolejnym krokiem jest dalszy rozwój skryptów tak, żeby można było analizować duże zestawy danych (np. z macierzy elektrod o 10 tys. kontaktów). To już trudniejsze. Warto zbadać inne bazy źródeł, np falkowe. Narzędzia: Matlab, kCSD
  7. Symulacje układu nerwowego (Hela, Jacek, Chaitanya, Szymon) - prowadzimy kilka projektów symulacyjnych. Jednym ciekawym projektem jest eksploracja narzędzi do automatycznej generacji modeli komórek zgodnych z zadanym typem morfologicznym (np. komórki piramidalne konkretnej warstwy, komórki gwieździste, itd). Narzędzia: Matlab, TREES, inne
  8. Analiza danych elektrofizjologicznych (Jaś, Szymon, Daniel) - Mamy kilka zestawów danych od kolegów, które czekają na porządną analizę. W tym:
    1. Dane Luki Berdondiniego - skrawki korowo-hipokampalne na macierzy 4096 elektrod
    2. Dane Andreasa Hierlemanna - siatkówka na macierzy 11 tys. elektrod
    3. Dane Andrew Jacksona - rejestracje z kory motorycznej przy użyciu różnych konfiguracji elektrod in vivo u małpy w trakcie konkretnych manipulacji.
    4. Dane Marka Hunta - rejestracje u swobodnie biegających szczurów, modeli schizofrenii. Zadanie: zbadać anomalną propagację w tkance wysokich częstości generowanych w NAc
    Narzędzia: Matlab, kCSD
  9. modelowanie LFP w NAc (Daniel, Szymon) - projekt częściowo wykonany. Należy zbadać własności potencjału generowanego przez komórki NAc. Komórki te mają nietypową geometrię. Generacja potencjału pojedynczej komórki jest pod kontrolą, trzeba ogarnąć populację i zbadać jak ten potencjał zanika z odległością dla różnych rozkładów komórek w przestrzeni, dla różnego stopnia korelacji wejść synaptycznych, itd Narzędzia: Python, LFPy, Neuron
  10. wokalizacja gryzoni (Daniel, Kuba Filipkowski, Paweł Boguszewski) opis Na początek trzeba napisać prostą aplikację w Pythonie pozwalająca na łatwą wizualizację danych (surowy sygnał + sonogram), następnie automatyczna segmentacja na elementarne "fonemy", potem klasyfikacja i korelacja z zachowaniem. Narzędzia: Python
  11. zachowanie myszy (Szymon, Kuba, Daniel) - analiza danych i modelowanie. Analizujemy dane behawioralne grup myszy żyjących w inteligentnych klatkach IntelliCage. Każda mysz ma wszczepiony transponder, który pozwala na śledzenie, która mysz kiedy weszła do którego rogu. Rogi są programowalne i pozwalają na badanie ciekawych aspektów uczenia indywidualnego i społecznego dzięki testowaniu myszy w grupach. Na podstawie takich danych budujemy probabilistyczne modele uczenia. Badane są różne szczepy, różne paradygmaty doświadczalne. Narzędzia: Python.
  12. Efficient processing of large data generated in detailed biophysical neural simulations (Chaitanya).

    In detailed biophysical neural simulations, large data is accumulated over the course of a simulation. The data corresponds to trans membrane currents or membrane potentials in individual compartments over time. In a typical simulation of 100 milli seconds, 10's of gigabytes of data in binary form is generated. We have developed a format called, NSDF (Neuroscience Simulation Data Format), based on HDF5 implementation to store and retrieve such simulation data effectively. In this project the student will explore, a browser based interaction with such a file, to display the contents in a usable way. The student can also write a plugin for vtk / paraview like visualizers to visualize the simulation on realistic neuron morphologies.
web stats