Predict the Curve Flattening

From BITPlan Wiki
Revision as of 22:57, 20 March 2020 by Wf (talk | contribs) (→‎Links)
Jump to navigation Jump to search

Slack

herausforderung_164 is the channel you can ask for an invitation on 1_038_a_daten

Organisation

Aufgabe

Titel Predict the Curve Flattening

Kategorie Kommunikation & Informationsvermittlung an Bürger*innen

Daten: Wie können wir Daten besser aufbereiten und nutzen?

Probleme

Jeder redet von #flattenthecurve aber wie sieht die Kurve eigentlich aus und wie entwickelt sie sich? Ich habe in den letzten Tagen bereits eine Open-Source Visualisierung mit Daten der John Hopkins University gemacht: https://paul-em.github.io/covid-19-curves/Spannend wäre allerdings zu wissen wie sich anhand des Momentums die Kurve entwicklen könnte und vielleicht noch andere Darstellungsformen zu entwickeln. Vielleicht wären hier Mathematiker ganz gut. Ich wäre als Informatiker jedenfalls dabei! Formulierung Herausforderung Wir können einfach darstellen ob die getroffenen Maßnahmen Wirkung zeigen.

Ziele

  • saubere und strukturierte Daten
  • Datengrundlage in Deutschland
  • Zeitreihen-Analyse
  • Zusammenhang zwischen Eindämmungsmassnahmen und Zeitreihen-Daten
  • Verzögerung durch Inkubationszeit berücksichtigen
  • Vergleich mit Ländern in denen die Wirkung schon eingetreten ist: China, Korea, Taiwan, ...

Vorgehen

Teambildung

Idee

  • Backendleute vieleicht um DB und REST-API kümmern, Mathematiker um modelle und Frontendleute um die darstellung und dann noch datenquellen gesammeltwerden.
  • 21:25 Uhr kleine Gruppe 3 Leute: probabilistische Modellieren mit Unsicherheiten
  • 21:38 Uhr Ich würde gerne ein Team für das data warehousing mit ein paar leuten machen.
  • 21:37 Uhr Datenrecherche
  • 21:45 Uhr Visualisierung
  • 21:48 Uhr statistische Modelle

Ideen

  • Aufbauend auf diesem Open-Source Projekt könnte weitergearbeitet werden: https://paul-em.github.io/covid-19-curves/Andere Ansätze gibts es bereits einige.
  • Wäre es nicht sinnvoll ein datenbank cluster aufzusetzen um die Daten zentral zu sammeln. Dann könne wir die verschiedenen Tools gegen die selbe Datenbasis laufen lassen und testen welche Algorythmen die besten sind und die Daten zusammenführen
  • Epidemic Calculator
  • predictions mit lstm, dense oder whatever nn ihr mögt
  • disease equations fitten
  • quasi md simulationen mit ansteckung bei interaktionen
  • ein dashboard bauen was als frontend dienen könnte
  • Mit http://www.bitplan.com/index.php/SimpleGraph könnte aus den CSV eine Graph-Datenbank gemacht und anschliessend mit Geo-Daten usw. verknüpft werden, damit wir Datenformate bekommen, die wir besser nutzen können.
  • Json und CSV wäre sinnvoll
  • Prognosen bieten sich generell verschiedene Ansätze an: 1. Fit der Daten an epidemiologische Modelle 2. Vergleich der Daten mit anderen Ländern (Italien, Südkorea, China) 3. Abschätzung durch Veränderungen im aktuellen Datensatz
  • Susceptible Pool wichtig, also die Bevölkerungszahl %of pop infected e.g. Diamond P=23.58% 0.02 % China, 0.12% Norway

Links

Germany