Bei genauem Hinsehen finden wir die Naturwissenschaft und besonders Mathematik überall in unserem Leben, vom Wasserhahn über die automatischen Temporegelungen an Autobahnen, in der Medizintechnik bis hin zum Mobiltelefon. Woran die Forscher, Absolventen und Lehrenden in Karlsruhe gerade tüfteln, erfahren wir hier aus erster Hand.
Wahlmodelle
Gudrun sprach im Januar 2024 mit zwei Studenten ihrer Vorlesung Mathematical Modelling and Simulation: Lukas Ullmer und Moritz Vogel. Sie hatten in ihrem Projekt Wahlmodelle ananlysiert. In dem Gespräch geht es darum, wie man hierfür mathematische Modelle findet, ob man Wahlsysteme fair gestalten kann und was sie aus den von ihnen gewählten Beispielen gelernt haben. Der Fokus ihrer Projektarbeit liegt auf der Betrachtung und Analyse von Wahlen, in denen mehrere verschiedene Wähler zu einem Thema abstimmen. Formal von Relevanz sind hierbei die sogenannten Wahlsysteme, welche die Art der Aggregation der Wählerstimmen beschreiben. Diese fallen in der Praxis recht vielfältig aus und über die Jahre wurden verschiedenste Wahlsysteme vorgeschlagen, angewendet und auch analysiert. In dieser Arbeit werden drei Kategorien präferenzbasierter Wahlsysteme analysiert: vergleichsbasierte Systeme, Scoring-Systeme sowie Approval-Systeme. Aufbauend darauf erfolgt die Konstruktion mehrstufiger und hybrider Wahlsysteme. Desweiteren werden verschiedenen Wahleigenschaften wie z.B. die Nicht-Diktatur oder die Strategiesicherheit betrachtet. Diese meist wünschenswerten Eigenschaften schließen sich teilweise gegenseitig aus. Die Themen Wahlmanipulation und Wahlkontrolle liegen deshalb besonders im Fokus. Literatur und weiterführende Informationen J. Rothe u.a. Einführung in Computational Social Choice: Individuelle Strategien und kollektive Entscheidungen beim Spielen, Wählen und Teilen. Spektrum Akademischer Verlag Heidelberg, 2012. doi: 10.1007/978-3-8274-2571-3. A.D. Taylor and A.M. Pacelli: Mathematics and Politics - Strategy, Voting, Power, and Proof. Springer-Verlag, Berlin Heidelberg, 2nd corrected ed. 2008, corr. 3rd printing, 2009. H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W.D. Wallis. The Mathematics of Elections and Voting. Springer, Berlin, Heidelberg, 2014. K. Loewenstein: Verfassungsrecht und Verfassungspraxis der Vereinigten Staaten, Springer-Verlag, Berlin Heidelberg New York, 1959. Podcasts P. Stursberg, G. Thäter: Social Choice, Gespräch im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt, G. Thäter: Wahlsysteme, Gespräch im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich, T. Pritlove: Wahlrecht und Wahlsysteme, Gespräch im CRE Podcast, Folge 128, Metaebene Personal Media, 2009. S. Gassama, L. Harms, D. Schneiderhan, G. Thaeter: Gruppenentscheidungen, Gespräch im Modellansatz Podcast, Folge 229, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020.
2/10/2024 • 16 minutes, 12 seconds
Podcast Lehre
In dieser Folge geht es darum, wie Sebastian und Gudrun Mathematik an Hochschulen unterrichten und welche Rollen das Medium Podcast und konkret unser Podcast Modellansatz dabei spielen. Die Fragen stellte unsere Hörerin Franziska Blendin, die in der Folge 233 im Jahr 2020 über Ihr Fernstudium Bachelor Maschinenbau berichtet hatte. Sie hatte uns vorab gefragt: "Was versprecht ihr euch von dem Podcast - was ist euer Fazit nach den Jahren den ihr ihn schon macht und wie gestaltet ihr warum Lehre? Was macht euch Spaß, was sind Herausforderungen, was frustriert euch? Warum und wie gestaltet ihr Lehre für Studierende außerhalb der Mathematik, also beispielsweise Maschinenbau?" Es ist ein bisschen lustig, dass die erste Folge Modellansatz, in der Sebastian und Gudrun sich spontan ein Thema zum reden suchten ausgerechnet ein Gespräch über eine neu konzipierte Vorlesung war und der Podcast diese Vorlesung bis heute in unterschiedlichen Rollen begleitet, obwohl das nicht zum ursprünglichen Plan gehörte, wie wir uns einen Podcast über Mathematik vorgestellt hatten. Einerseits haben viele kein Verständnis dafür, was alles mit Mathe gemacht werden kann, andererseits erleben wir intern andauernd so viele spannenden Vorträge und Personen. Eigentlich bringen wir die beiden Sachen in unserem Podcast nur zusammen. Das Medium Podcast ist dabei durch das Gespräch sehr niederschwellig: Es ist so sehr leicht mit den Gesprächen in die Themen einzusteigen und auch auf viel weiteren Ebenen sich darüber zu unterhalten. Wir sind überzeugt, dass wir mit Text oder Video nie so viele und so umfangreiche Austauschsformen einfangen können, mal ganz abgesehen davon, dass die Formate dann an sich für uns zu einer viel größeren Herausforderung in Form und Darstellung geworden wären. Wir hoffen, dass sich irgendwann auch mal eine Person dazu bekennt, wegen unseres Podcasts ein Mathe- oder Informatikstudium zu erwägen, aber bisher ist das tolle Feedback an sich ja schon eine ganz ausgezeichnete Bestätigung, dass diese Gespräche und Themen nicht nur uns interessieren. Viele der Gespräche haben sich auch schon vielfach für uns gelohnt: Sebastian hat aus vielen Gesprächen Inspirationen für Vorlesungen oder andere Umsetzungen gewonnen. Ein Fazit ist auf jeden Fall, dass das Ganze noch lange nicht auserzählt ist, aber wir auch nicht außerhalb unserer Umgebung leben. In der Pandemie sind einerseits Gespräche am Tisch gegenüber, wie wir sie gerne führen, schwierig geworden, und gleichzeitig ist die Lehre so viel aufwendiger geworden, dass kaum Zeit verblieb. Aufnahmen, waren zuletzt hauptsächlich "interne" Podcasts für Vorlesungen, damit die Studierenden daheim und unterwegs sich mit den Inhalten auseinandersetzen können. Gudrun hat damit auch Themen vorbereitet, die sie anschließend in die Zeitschrift Mitteilungen der Deutschen Mathematiker-Vereinigung als Artikel geschrieben hat. Das betrifft insbesondere die Folgen zu Allyship und zum Mentoring in der Mathematik. In der Vermittlung von Mathematik im Studium gibt es kaum Themen, die nicht irgendwo spannend und interessant sind. Um die Themen zu verstehen oder wie dort die Lösungen oder Verfahren gefunden wurden, muss die Theorie behandelt und in weiten Teilen verstanden werden. Da aber "Rosinenpickerei" nichts bringt (also nur die nötigsten Teile von Theorie zu erzählen), geht es darum, ein sinnvolles Mittelmaß zu finden. Also auf der einen Seite ein gutes Fundament aufzubauen zu einem Thema, aber gleichzeitig noch Zeit für Einblicke in spannende und interessante Teile zu haben. Es ist in der Vorbereitung auf der einen Seite total schön, wenn dann eine Anwendung perfekt in die Theorie passt, beispielsweise entwirft Sebastian gerade ein Skript zu formalen Sprachen und Grammatiken, und dann kann man das Komprimierverfahren LZW als eine dynamische Grammatik sehen. Oder es geht um theoretische und "langweilige" Zustandsmaschinen und dann gibt es das Beispiel, dass die Raspberry Pi Foundation gerade dazu einen eigenen Chip (RP2040) mit solchen Komponenten veröffentlicht, oder mit dem Newton-Verfahren wurde die schnelle Quadratwurzel für das Computerspiel Quake erst möglich. Ob das dann auch so toll in der Vorlesung herüberkommt, ist nochmal ein eigenes Thema, aber wenn es klappt, so ist das natürlich großartig. Umgekehrt frustriert es dann schon, wenn die Grundlagen nicht bei möglichst vielen ankommen- nicht jede Person muss sich ja bis ins letzte für ein Thema begeistern, aber am Ende sollte der Großteil die wichtigen Hauptsachen mitnehmen. Leider gibt es immer ein paar Leute, wo das dann trotz vieler Angebote leider nicht so gut klappt, und das frustriert natürlich. Dann muss geschaut werden, woran es liegen könnte. Aktuell hilft das Nörgeln und Nerven, wenn nicht regelmäßig die angebotenen Übungsaufgaben abgegeben werden, wohl mit am Besten. Warum werden mathematische Themen im Ingenieurstudium relevant: Das hängt ganz davon ab, welche Kurse wir haben, und was gebraucht wird... Sebastian unterrichtet jetzt gerade Informatik-Studierende und in den Wirtschaftswissenschaften, früher außer MACH/CIW/BIW/MAGE... auch mal Mathe-Lehrende. Das "Wie" ist dann jeweils auf die Gruppe zugeschnitten: Zunächst gibt es ja unterschiedliche Voraussetzungen: Curriculum, Haupt- & Nebenfächer, etc.. Dann gibt es eine Liste von Fertigkeiten, die vermittelt werden sollen und können, und dann besonders in den Vorlesungen außerhalb des Mathematik-Studiums die lästige Beschränkung des Umfangs der Veranstaltung, und wieviel Eigenarbeit erwartet werden kann. Grundsätzlich möchten wir auch bei den Nicht-Hauptfächlern so viel davon erzählen, was dahinter steht- statt "ist halt so"- und was heute damit gemacht werden kann. Diese Motivation macht vielen das Lernen leichter. Es muss aber auch immer viel selbst gemacht werden, dh. viele Aufgaben und prototypische Problemlösungen, denn Mathe lernt sich nicht durchs zuhören alleine. (leider... ;) Damit geht das Puzzle-Spiel los: Welche Grundlagen müssen aufgebaut werden, und was kann wie in der gegebenen Zeit sinnvoll behandelt werden... Und natürlich immer mit dem Blick darauf, ob es Anküpfungspunkte in die Studienrichtungen der Studierenden gibt. Literatur und weiterführende Informationen F. Blendin: Fußballfibel FSV Frankfurt MINT-Kolleg Baden-Württemberg fyyd - Die Podcast-Suchmaschine F. Blendin, S. Düerkop: Die Suche nach der ersten Frau, Zeit, 2.9.2020. GanzOhr-Konferenzen auf Wissenschaftspodcasts.de. RP2040 Dokumentation, Prozessor mit 8 Zustandsmaschinen. Schülerlabor Mathelabor der Fakultät für Mathematik am KIT und das Onlinelabor Einsetzungsverfahren gegenüber dem Gauß-Jordan-Verfahren Vom traditionellen Riemann-Integral zum modernen Lebesgue-Integral mit Nullmengen, das natürlich kompatibel ist zur Maßtheorie, Fourier-Transformation und zu den Sobolev-Räumen für Finite-Elemente Farbwahrnehmung durch Sinneszellen - Sinneszellen für langwelliges Licht werden auch durch kurzwelliges Licht angesprochen und das schließt die Illusion des Farbkreises Podcasts von Franziska Legende verloren Der Podcast über die vergessenen Geschichten des deutschen und internationalen Frauenfußballs, Produziert von Sascha, Sven, Petra, Freddy, Helga, Sunny, Franzi G4 Podcast über CNC-Maschinen (Thema Zerspanung, zuletzt mit Sonderfolgen zum Lernen im Studium) Braucast - Ein Hobbybrau-Podcast. Podcasts zum Thema Mathe in der Hochschullehre A. Chauhan, G. Thäter: CSE, Gespräch im Modellansatz Podcast, Folge 249, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2022. F. Blendlin, G. Thäter: Fernstudium Maschinenbau, Gespräch im Modellansatz Podcast, Folge 233, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020. Y. Cai, S. Dhanrajani, G. Thäter: Mechanical Engineering, Gespräch im Modellansatz Podcast, Folge 176, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. ]http://modellansatz.de/maschinenbau-hm|G. Thäter, G. Thäter: Maschinenbau HM], Gespräch im Modellansatz Podcast, Folge 169, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, J. Rollin: Advanced Mathematics, Conversation in the Modellansatz Podcast, Episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. F. Hettlich, G. Thäter: Höhere Mathematik, Gespräch im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M.-L. Maier, S. Ritterbusch: Rotierender 3d-Druck, Gespräch im Modellansatz Podcast, Folge 9, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. C. Spannagel, S. Ritterbusch: Flipped Classroom, Gespräch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Podcasts als Projektabschluss S. Bischof, T. Bohlig, J. Albrecht, G. Thäter: Benchmark OpenLB, Gespräch im Modellansatz Podcast, Folge 243, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2021. Y. Brenner, B. Hasenclever, U. Malottke, G. Thäter: Oszillationen, Gespräch im Modellansatz Podcast, Folge 239, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2021. S. Gassama, L. Harms, D. Schneiderhan, G. Thäter: Gruppenentscheidungen, Gespräch im Modellansatz Podcast, Folge 229, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020. L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.A. Bayer, T. Braun, G. Thäter: Binärströmung, Gespräch im Modellansatz Podcast, Folge 218, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. C. Brett, N. Wilhelm, G. Thäter: Fluglotsen, Gespräch im Modellansatz Podcast, Folge 196, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. Weitere erwähnte Podcasts, Artikel und Vorträge J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, Gespräch im Modellansatz Podcast, Folge 184, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Ritterbusch: 0x5f3759df - ein WTF für mehr FPS, Vortrag auf der GPN20, 2022. M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Heidelberger: Bilderkennung zeigt Wege als Klang, Presseinformation 029/2018, Karlsruher Institut für Technologie (KIT), 2018. N. Ranosch, G. Thäter: Klavierstimmung. Gespräch im Modellansatz Podcast, Folge 67, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
10/3/2023 • 1 hour, 42 minutes, 14 seconds
Instandhaltung
Gudrun unterhält sich in dieser Folge mit Waltraud Kahle. Sie war bis 2018 als außerplanmäßige Professorin in der Fakultät für Mathematik an der Otto von Guericke Universität in Magdeburg beschäftigt und war Mitglied des Instituts für Mathematische Stochastik. Das Thema des Gespräches ist das Forschungsthema von Waltraud: Statistik für zensierte Daten und in Abnutzungsprozessen sowie unvollständige Reparatur. Das Gespräch beginnt mit der Frage: Wie kann man Aussagen darüber treffen, wie lange technische Objekte oder auch Menschen "leben" . Ungefähre Aussagen hierzu für große Gruppen sind in der Industrie, der Demographie und Versicherungsmathematik und Medizin nötig. Es ist ein statistisches Problem, das sich in der Theorie auf eine (möglichst große) Anzahl von Beobachtungen bezieht aus denen dann Schlussfolgerungen abgeleitet werden, die für ähnliche Prozesse auch zu Vorhersagen dienen können. In der Praxis liegen aber in der Regel nur zensierte Daten vor, denn die Beobachtung muss abgebrochen werden, bevor die vollständige Information vorliegt. Ein alternativer Zugang ist es nun, nicht nach der Lebensdauer zu fragen sondern die der Lebensdauer zugrunde liegenden Abnutzungsprozesse zu modellieren (z.B. Verschleiß und Ermüdung). Hier verwendet man stochastische Prozesse, wie zum Beispiel den Wienerprozess. Grundlegende Eigenschaft des Wienerprozesses ist es, dass in jedem Zeitintervall ein normalverteilter Zuwachs erfolgt und alle diese Zuwächse voneinander unabhängig sind. Ein Ausfall erfolgt, wenn der Abnutzungsprozess ein vorgegebenes Niveau erstmalig erreicht. Man fragt sich folglich: Wie ist die Verteilung dieser "Erstüberschreitungszeit". Zur Vermeidung von Ausfällen können regelmäßig vorbeugende Instandhaltungsmaßnahmen durchgeführt werden, die das Abnutzungsniveau verringern. Das kann mit festen Intervallen oder nach vorgegebenen Ereignissen stattfinden. Zu DDR-Zeiten gab es z.B. ein Projekt, dass sicherstellen konnte, das notwendige Wartungsarbeiten von Mähdreschern nur im Winter erfolgten, damit sie zur Erntesaison voll einsatzfähig waren. Das statistische Modell muss Aussagen zu folgenden Fragen treffen können Einfluß der Instandhaltung auf die Lebensdauerverteilung, Definition von Kostenfunktionen der vorbeugenden Instandhaltung in Abhängigkeit vom Reparaturgrad, Kostenoptimale Instandhaltung. Andere Modellierungsmöglichkeiten bieten Gammaprozesse oder inhomogene Poissonprozesse. Im Gespräch gehen Gudrun und Waltraud auf Eigenschaften der Normalverteilung ein. Sie besprechen die Exponentialverteilung (diese hat eine konstante Ausfallrate). Das beschreibt elektronische Bauteile mit langer Lebensdauer sehr gut. Außerdem geht es um die Weibull-Verteilung. Diese passt auf Systeme mit sehr vielen Teilen (das Modell nimmt hier sogar unendlich viele Teile), die mit geringer Wahrscheinlichkeit ausfallen und wo das System ausfällt, sobald das erste Glied ausgefallen ist. Diese Verteilung hat die praktische Eigenschaft, dass die in der Medizin verwendeten Modelle der proportionalen Ausfallrate und der proportionalen Lebensdauer übereinstimmen. Waltraud engaiert sich im eLeMeNTe e.V.. Das ist der Landesverein Sachsen-Anhalt zur Förderung mathematisch, naturwissenschaftlich und technisch interessierter und talentierter Schülerinnen, Schüler und Studierender. Ein Ziel ist es, die Landesolympiaden Mathematik in Sachsen-Anhalt durchzuführen und Schülerinnen und Schüler mit speziellen Arbeitsgemeinschaften auf die Wettbewerbe vorzubereiten. Waltraud findet es spannend, dort oft überraschenden Ideen der Kinder und jungen Leute zu begegnen, die noch nicht in den ausgetretenen Denkpfaden unterwegs sind. Zur Geschichte der Mathe-Olympiaden finden sich auf Wikipedia folgende Informationen (die Gudrun aus eigenem Erleben bestätigen kann): "Die erste Mathematik-Olympiade in der DDR fand 1961/62 als „Olympiade Junger Mathematiker“ statt. Seitdem gab es dort ab der 5. Klassenstufe Schul- und Kreisolympiaden, ab der 7. Klassenstufe Bezirksolympiaden und ab der 10. Klassenstufe DDR-Olympiaden, an der aber auch sogenannte Frühstarter aus tieferen Klassenstufen teilnahmen. Der DDR-Ausscheid fand zunächst in der Woche vor Ostern jeden Jahres in der Jugendhochschule „Wilhelm Pieck“ bei Berlin, später im Mai in Erfurt statt. ... Auf allen Ebenen gab es zur Unterstützung begabter Schüler Mathematikzirkel....Nach der Wiedervereinigung Deutschlands entwickelte sich die Mathematikolympiade schnell zu einem bundesweiten Schülerwettbewerb. Seit 1994 ist der Mathematik-Olympiaden e.V. Träger des Wettbewerbs, der in Kooperation mit dem Talentförderzentrum Bildung & Begabung jährlich ausgeschrieben wird. Seit 1996 nehmen alle 16 Bundesländer an der Bundesrunde teil." Die Bundesrunde fand 1993, 1994 und 2001 in Magdeburg stattt. Referenzen und weitere Informationen Kahle, Waltraud; Mercier, Sophie; Paroissin, Christian: Mathematical models and methods in reliability set. volume 3: Degradation processes in reliability. In: Hoboken, NJ: Wiley, 2016 (Mathematics and statistics series) Kahle, Waltraud; Liebscher, Eckhard: Zuverlässigkeitsanalyse und Qualitätssicherung, Oldenbourg Wissenschaftsverlag, 2013 Elemente e.V. Landesolympiade Mathematik in Sachsen-Anhalt Matheolympiade in Deutschland
11/6/2022 • 49 minutes, 57 seconds
CSE
Gudrun spricht in dieser Folge mit Anshuman Chauhan über sein Masterstudium Computational Sciences in Engineering (CSE) an der TU Braunschweig. CSE ist dort ein viersemestriger Masterstudiengang, der etwa zur Hälfte in Englisch und zur anderen Hälfte in Deutsch unterrichtet wird. Er ist an der Fakultät Architektur, Bauingenieurwesen und Umweltwissenschaften angesiedelt, kombiniert aber in der Ausbildung Ingenieurwissenschaften, Mathematik und angewandte Informatik. In gewisser Weise ist es eine konsequente Weiterentwicklung der Idee der Technischen Universitäten deutscher Prägung, dass heute solche interdisziplinären Studiengänge angeboten werden. So wie das heutige KIT wurden sie ja häufig als Polytechnische Schulen gegründet, in denen zunächst das was wir heute Maschinenbau nennen mathematisiert wurde, um mit der Entwicklung der Technik Schritt halten zu können. In zunehmenden Maße waren dann immer mehr technische Fächer ohne eigene Forschung und auch ohne eine Grundausbildung in Mathematik nicht mehr denkbar. Heute hält nun endgülitg zunächst die Computersimulation aber zunehmend auch die Benutzung von Algorithmischem Lernen und Big Data Einzug in die Ingenieurwissenschaften. Diese Entwicklung wird mit Spezialisierungen in der Mathematik, insbesondere in den Studiengängen Technomathematik, in Spezialisierungen in den Ingenieurwissenschaften, aber auch durch die Schaffung von neuartigen Studiengängen begleitet, die im Namen wie in der Ausbildung mindestens zwei, oft aber drei Standbeine haben: Mathematik, Informatik und eine technische Anwendung. Anshuman ist in Neu-Dehli aufgewachsen. Nach seiner Bachelorarbeit zu Finite Element Methoden hatte er sich weltweit nach Studiengängen umgeschaut, die mit Computersimulation zu tun haben - am liebsten mit Aerodynamik für Autos. Deutschland war für ihn dabei attraktiv, weil es renommierte Technische Universitäten hat und die Kosten nicht exorbitant sind. Er entschied sich für die TU in Braunschweig aufgrund eben dieses Renomees der deutschen TU9. Sie hat zur Zeit etwa 20.000 Studierende in fast 80 Studiengänge. Seit 2018 gibt es einen Exzellenzcluster in Luftfahrt und Metrologie und der DLR ist in der Nähe. Im Gespräch erläutert Anshuman, dass er mit der Entscheidung für Braunschweig und für diesen Studiengang sehr zufrieden ist. Er ist nun nach erfolgreichem Abschluss und einiger Zeit in der Wirtschaft seit 2020 am KIT im Graduiertenkolleg SiMet, wo der Kontakt mit dem Podcast zustande kam. Braunschweig hat ein richtiges Stadtleben, das von den vielen Studierenden dort mit geprägt ist. Anshuman ist dort in einem Studentenwohnheim untergekommen und hatte sofort sozial Anschluss. In dem von ihm in Braunschweig belegten Masterprogramm CSE ist jedes Semester aufgeteilt zwischen Ingenieurfächern, Mathematik und Informatik. Zum Beispiel die Fächer Strömungsdynamik und Thermodynamik zusammen mit partiellen Differentialgleichungen in der Mathematik und Visualisierung im Informatikteil. Später sind dann Vertiefungskurse in z.B. Maschinenbau, Elektrotechnik, Bauingenieurwesen oder Informatik wählbar. Die Numerischen Methoden in der Aerodynamik z.B. waren sehr praxisnah. Er wollte seine Masterarbeit unbedingt in der Industrie schreiben, um Erfahrung in einem Unternehmen zu sammeln. Er sah aber sehr schnell, dass richtig Deutsch zu lernen dafür eine notwendige Voraussetzung ist. Deshalb nahm er sich ein Semester Zeit, um die Sprache noch besser zu üben und außerdem einige für ihn sehr interessante Kurse zu belegen, zu denen er vorher keine Zeit gehabt hatte. Überdies hat er auch noch spanisch belegt. Mit der deutschen Bewerbung hat es schließlich mit einer Masterarbeit in Stuttgart geklappt. Der Wechsel von Braunschweig in Norddeutschland nach Stuttgart in Süddeutschland war für ihn sehr spürbar - es ist einfach ein anderer Schlag Menschen. In der Firma gibt es natürlich vorgeschriebene Prozesse, in die man sich erst einarbeiten muss. Sie bringen aber eine gewisse Robustheit in die Entwicklung. Als Masterstudent hatte er trotzdem genug Freiheit und eine tolle Betreuung. In der Industrietätigkeit nach seinem Masterabschluss musste er sich oft schnell in die Probleme einarbeiten und konnte nicht so gründlich, sein wie er es aus der Studienzeit gewohnt war. Er beschäftigte sich mit der Optimierung am Einlasskanal in einem Motor mit Hilfe von Strömungsrechnung (CFD). D.h. er hatte sein ursprüngliches Traumziel eigentlich erreicht. Trotzdem war es ihm dann zu viel Routine und er wollte noch mehr über ein Zukunftsthema für Autos lernen: konkret über Batterien. Das kann er nun während der Promotion im Rahmen von SiMET tun. Hier ist er wieder in einem Umfeld von anderen jungen Menschen, die sehr unterschiedliche Masterabschlüsse erworben haben und Mathematik, Computer und die Anwendungsthemen alle verstehen müssen. Podcasts F. Blendlin, G. Thaeter: Fernstudium Maschinenbau, Gespräch im Modellansatz Podcast, Folge 233, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020. S. Carelli, G. Thäter: Batteries, Gespräch im Modellansatz Podcast, Folge 211, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.Y. Cai, S. Dhanrajani, G. Thäter: Mechanical Engineering, Gespräch im Modellansatz Podcast, Folge 176, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
8/20/2022 • 41 minutes, 31 seconds
Mentoring
Gudrun hatte 2018 mit Carla Cederbaum über mathematische Konzepte gesprochen, mit denen man z.B. den Schwerpunkt von Sternen bestimmen kann. Im April 2022 trafen sich beide erneut zum Gespräch - diesmal per Videokonferenz. Carla ist inzwischen Professorin an der Uni Tübingen in der AG Geometrische Analysis, Differentialgeometrie und Relativitätstheorie und erhielt den Tübinger Preis für Wissenschaftskommunikation des Jahres 2022. Seit 2021 arbeiten Gudrun und Carla zusammen bei der Gestaltung der Zeitschrift Mitteilungen der Deutschen Mathematiker Vereinigung (MDMV). Gudrun ist 2021-24 als Herausgeberin verantwortlich für die Inhalte und hat neben drei anderen Kolleginnen und Kollegen auch Carla als Mitherausgeberin gewonnen. Im Gespräch geht es um das Praxishandbuch zum Mentoring von Frauen in der mathematischen Forschung, das unter der Creative Commons Lizenz CC-BY-SA 4.0 allen Interessierten zur Verfügung steht und an dessen Weiterentwicklung (auch aufgrund der offenen Lizenz) alle mitarbeiten können. Das Handbuch wurde von Carla Cederbaum, Sophia Jahns und Anna Wienhard im Rahmen des Schwerpunktprogramms SPP2026 Geometrie im Unendlichen der Deutschen Forschungsgemeinschaft (DFG) verfasst und basiert auf den Erfahrungen mit dem Math Ment♀ring Programm an der Universität Tübingen unter der Leitung von Carla einerseits und dem UPSTREAM Mentoring Netzwerk an der Universität Heidelberg unter der Leitung von Anna (und Michael Winckler) andererseits. (*) Mentoring gibt es heutzutage in vielen Zusammenhängen und kann konkret sehr viel Unterschiedliches bedeuten. Die Idee, ein spezielles Mentoring für Frauen an ihrem Fachbereich in Tübingen anzubieten, erwuchs aus Carlas eigenen Erfahrungen. Seit ihrem Studium in Freiburg erlebte sie, wie die Tatsache, einer Minderheit im Fach anzugehören, Frauen auf vielfältige Weise dabei behindert, sich in der Mathematik kompetent und in der Fachkultur heimisch zu fühlen. Inzwischen ist gut mit konkreten Zahlen belegt, dass beim Übergang von jeder Entwicklungsstufe auf die nächste in der akademischen Laufbahn mehr Frauen als Männer das Fach verlassen. D.h. bei jedem Karriereschritt sinkt der Anteil von Frauen. So gehen Talente verloren und das Fach Mathematik verliert als Ganzes. In vielen Universitäten hat man das inzwischen als Problem erkannt, dem man strukturell begegnen möchte, aber es gibt oft eine gewisse Ratlosigkeit, wie das geschehen kann. Carla und ihre Mitstreiterinnen sehen als einen Baustein in der Lösung dieses Problems die Wichtigkeit des Austauschs unter Frauen in einem geschützten Rahmen. Dies ist ein effektiver und vergleichsweise kostengünsitger Ansatz. Es geht nicht darum, Frauen zu einer Karriere in der Mathematik zu überreden, sondern diejenigen zu finden und zu unterstützen, die Lust und Talent dazu haben. Unterschiedliche Ausgangssituationen und fehlende Privilegien können so abgemildert werden. An der Duke University baute Carla erstmals Mentoring von und für Frauen in der Mathematik auf, u.a. mit Ingrid Daubechies. Für Tübingen hat sie daraus das Format übernommen, dass die Mentorin der Mentee in der Regel eine Stufe in der Karriereleiter voraus ist. So kann man sich noch recht einfach hineindenken, wie man selbst noch vor kurzem gedacht und gearbeitet hat - außerdem ist es ideal, wenn man selbst als Mentee in einem weiteren "Gespann" die "andere Seite" des Mentorings erlebt. In jedem Fall ist es hilfreich, wenn Mentorinnen eine Schulung oder zumindest eine Handreichung bekommen, bevor sie diese Rolle übernehmen. Im Handbuch ist erprobtes Material für die Schulung der Mentorinnen zusammengetragen (inkl. aller möglicher Vorlagen für Anschreiben, Aushänge etc.). Eine ausführliche und weiter wachsende Literatursammlung zu Mentoring und Gender Studies rundet das Material ab. Die grundlegende Struktur des Mentorings ruht außerdem auf folgenden Prinzipien: Vertraulichkeit zwischen Mentor*in und Mentee geht in beide Richtungen. Die Individualität der Mentee zu respektieren ist oberstes Gebot. Regelmäßige Treffen von Mentor*in und Mentee helfen, Vertrauen aufzubauen - möglichst bevor ernsthaftere Probleme auftreten. In Tübingen dauert die Mentorinnenschulung 1/2 Tag und konzentriert sich auf die Frage: Was ist Mentoring und was nicht und wie kann ich das konkret gestalten. In einem ersten Teil der Schulung werden typische Argumente und belegte Fakten erörtert, die für und gegen die Notwendigkeit der Unterstützung von Frauen in der Mathematik sprechen. Dafür hat sich das Format der Fishbowl-Diskussion zwischen zwei ausgelosten Gruppen bewährt. Danach werden offenes und proaktives Zuhören geübt und Antworten auf typische Mentoringfragen in unterschiedlichen Karrierestufen gesammelt. Das geschieht in 3er-Gruppen mit den Rollen Mentee/Mentorin/Beobachterin. Jede Gruppe zieht zufällig eine Vignette und spielt ein Gespräch zur dort geschilderten Situation durch. Anschließend erfolgt jeweils eine Besprechung dazu, wie die Personen die Gespräche in den unterschiedlichen Rollen wahrgenommen haben, was gut funktioniert hat und was vielleicht nicht so gut gelaufen ist. Danach werden die Rollen getauscht. Schließlich wird im dritten Teil der Schulung das erste Treffen mit einer Mentee vorbereitet, um eventuelle Nervosität oder Anspannung abzubauen. Man arbeitet in Paaren, um sich das erste Treffen möglichst genau vorzustellen. Hierbei werden die Paare von Schlüsselfragen geleitet. Auch werden Anlaufstellen für über das Mentoring hinausgehende Fragestellungen vorgestellt. Im Handbuch sind zu allen Teilen der Schulung viele Fallbeispiele und Schlüsselfragen gesammelt. Daneben finden sich Vorlagen für Werbung, Organisatorisches zu Treffen und zur Kontaktaufnahme. Es sind aber auch Verweise auf Ressourcen gesammelt, falls es ernsthafte Probleme gibt, die im Mentoringgespräch nicht gelöst werden können (wie z.B. Prüfungsangst, finanzielle Sorgen oder eine psychische Krise). Es wird dafür sensibilisiert, wie man erkennen kann, für welche Fragen man selbst eine kompetente Ansprechperson ist und dass es im Mentoring nicht darum geht ein "Mini-me" zu erziehen - nicht alles was für mich funktioniert hat, ist auch für das Gegenüber gut. Deshalb ist es wichtig, die Werte des Gegenübers herausfinden und dann die Zielsetzung der gemeinsamen Zeit möglichst danach auszurichten. Das Mentoring in Tübingen hat 2014/15 begonnen - der Übergang zur Postdoc-Phase scheint vor Ort das größte Leck zu sein. Als Gründe nennen die Mentees, dass eine akademische Laufbahn sich schwer mit Familiengründung und Partnerschaft vertrage, wenn in der Postdoc-Phase 2-3 längere Auslansdaufenthalte oder wenigstens Wechsel zwischen deutschen Universitäten erwartet werden. Gudrun hat für den Podcast mit drei Frauen gesprochen, die in Tübingen am Mentoringprogramm teilgenommen haben und inzwischen auf der nächsten Karrierestufe arbeiten. Das Gespräch mit Polyxeni Spiloti ist schon veröffentlicht. Die Gespräche mit Cornelia Vogel und Alix Richter folgen bald. Cornelia und Alix waren als Studentinnen Mentees und haben sich jeweils für eine Promotion entschieden, an der sie zur Zeit des Gespräches in Tübingen bzw. Paderborn arbeiteten. (*) Zusätzliche Förderung erhielt das Projekt durch die Duke University, das Zukunftskonzept der Universität Tübingen (DFG, ZUK 63) und durch das Athene-Mentoring Programm, Universität Tübingen, die HGS MathComp am IWR Heidelberg, den Exzellenzcluster STRUCTURES und die Research Station Geometry & Dynamics der Universität Heidelberg. Referenzen und weitere Informationen C. Cederbaum: Wo liegt der Schwerpunkt eines Sternes? Vortrag Faszination Astronomie Online vom 4. Februar 2021. Mentoring Material Podcasts C. Cederbaum, G. Thäter: Sternenschwerpunkt, Gespräch im Modellansatz Podcast, Folge 172, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. P. Spilioti, G. Thaeter: Spectral Geometry, Gespräch im Modellansatz Podcast, Folge 247, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2022.
7/28/2022 • 34 minutes, 56 seconds
Spectral Geometry
Gudrun talks with Polyxeni Spilioti at Aarhus university about spectral geometry. Before working in Aarhus Polyxeni was a postdoctoral researcher in the group of Anton Deitmar at the University of Tübingen. She received her PhD from the University of Bonn, under the supervision of Werner Mueller after earning her Master's at the National and Technical University of Athens (Faculty of Applied Mathematics and Physics). As postdoc she was also guest at the MPI for Mathematics in Bonn, the Institut des Hautes Etudes Scientifiques in Paris and the Oberwolfach Research Institute for Mathematics. In her research she works on questions like: How can one obtain information about the geometry of a manifold, such as the volume, the curvature, or the length of the closed geodesics, provided that we can study the spectrum of certain differential operators? Harmonic analysis on locally symmetric spaces provides a powerful machinery in studying various invariants, such as the analytic torsion, as well as the dynamical zeta functions of Ruelle and Selberg. References and further information P. Spiliotti: Ruelle and Selberg zeta functions on compact hyperbolic odd dimensional manifolds PhD thesis, Bonn, 2015. Greek Women in Mathematics Website Celebration of Greek Women in mathematics, May 12 2022 Greek women in mathematics - First podcast episode Eberhard Zeidler on Wikipedia Podcasts A. Pohl: Quantenchaos, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 79, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
6/1/2022 • 40 minutes, 36 seconds
Hochwasserschutz
Gudrun spricht in dieser Folge mit Ute Badde in der Landesanstalt für Umwelt Baden-Württemberg (LUBW) am Südende von Karlsruhe. Am 3. Februar, hatte Gudrun mit der Vorlesung Mathematical Modelling and Simulation eine Exkursion in die LUBW unternommen. Geplant war, den Studierenden zu zeigen, wie dort Modelle und Simulationen der Wasserläufe in Karlsruhe eingesetzt werden und mit den Wettervorhersagen als Eingangsdaten arbeiten. Zufällig war es so, dass an diesem Tag eine recht massive Hochwasserlage herrschte. Und zwar nicht aufgrund von außergewöhnlichen oder überraschend heftigen Niederschlägen, sondern aufgrund eines mehrstündigen Landregens. Tatsächlich hätte aufgrund der außerdem noch ungewöhnlich hohen Temperatur noch mehr Wasser unterwegs sein können, wenn auch noch Tauwasser aus den Bergen hinzugekommen wäre. Da es aber in dem Winter zuvor kaum Schnee gegeben hatte, war der Regen der wesentliche Wassereintrag, Jedenfalls war die eigentliche Hochwasserzentrale am Tag der Exkursion besetzt und die Gruppe wich in einen anderen Raum aus. Zum aktuellen Hochwassergeschehen konnte sie aber sehr eindrückliche Informationen mitnehmen. Hochwasser war dann auch ein Thema im späten Frühjahr und in den Sommermonaten 2021. Es gab einige Starkregenereignisse mit Überschwemmungen südlich von Stuttgart und der Rhein war lange Wochen nicht schiffbar und es gab einige Perioden, wo der Auenwald am Rhein überflutet war. Dieses Geschehen in Baden-Württemberg im Auge zu haben und zwar in der Messung und für kurzzeitige und mittelfristige Prognosen ist die Aufgabe der Arbeitsgruppe von Ute Badde an der LUBW. Als Bürger hat man auf diese Daten z.B. Zugriff über die Seiten der Hochwasservorhersage in Baden-Württemberg. Dafür gibt es Zugang zu Messdaten (z.B. Pegelstände) zu unterschiedlichen meteorologischen Modellen und zu einer Armee leistungsstarker Rechner, die dann aus den Daten und den Wettervorhersagen eine Prognose für die Wasserstände der Flüsse wie Rhein, Neckar oder auch den Bodensee berechnen. Damit ist es dann möglich, wenn es brenzlig wird, Gemeinden und Gewerbetreibende zu beraten ob und wenn ja welche Vorsorge vor Ort getroffen werden sollte. Ute hat Bauingenieurwesen am KIT studiert und sich anschließend in der Hydrologie spezialisiert. In die LUBW ist sie zunächst auf einer Projektstelle eingestiegen. Inzwischen hat sie dort eine feste Stelle. Ihr gefällt nach wie vor sehr gut, dass sie an der Schnittstelle von Computern und Modellen ganz Praxis-relevante Fragen beantworten kann und insbesodere in Extremsituationen Entscheidungshilfen geben kann. Außerdem ist es eine schöne Herausforderung, über ihre Arbeit zu berichten. Oft für Zeitungen und das lokale Fernsehen aber diesmal auch im Podcast. Referenzen und weiterführende Informationen Einschätzung des Hochwassers am 3. Februar 2020 vom Center for Disaster Management and Risk Reduction Technology (CEDIM) am KIT Podcasts F. Simons, A. Rothert, G. Thäter: Hybride Strömungsmodelle, Gespräch im Modellansatz Podcast, Folge 180, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. P. Darscheid: Shannon Information, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 139, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. R. Kopman, G. Thäter: Wasserstraßen, Gespräch im Modellansatz Podcast, Folge 24, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
3/17/2022 • 26 minutes, 1 second
Allyship
One of the reasons we started this podcast in 2013 was to provide a more realistic picture of mathematics and of the way mathematicians work. On Nov. 19 2021 Gudrun talked to Stephanie Anne Salomone who is Professor and Chair in Mathematics at the University of Portland. She is also Director of the STEM Education and Outreach Center and Faculty Athletic Representative at UP. She is an Associate Director of Project NExT, a program of the Mathematical Association of America that provides networking and professional development opportunities to mathematics faculty who are new to our profession. She is a wife and mother of three boys, Milo (13), Jude (10), and Theodore (8). This conversation started on Twitter in the summer of 2021. There Stephanie (under the twitter handle @SitDownPee) and @stanyoshinobu Dr. Stan Yoshinobu invited their fellow mathematicians to the following workshop: Come help us build gender equity in mathematics! Picture a Mathematician workshop led by @stanyoshinobu Dr. Stan Yoshinobu and me, designed for men in math, but all genders welcome. Gudrun was curious to learn more and followed the provided link: Workshop Abstract Gender equity in the mathematical sciences and in the academy broadly is not yet a reality. Women (and people of color, and other historically excluded groups) are confronted with systemic biases, daily experiences, feelings of not being welcome or included, that in the aggregate push them out of the mathematical sciences. This workshop is designed primarily for men in math (although all genders are welcome to participate) to inform and inspire them to better see some of the key issues with empathy, and then to take action in creating a level-playing field in the academy. Workshop activities include viewing “Picture a Scientist” before the workshop, a 2-hour synchronous workshop via zoom, and follow-up discussions via email and Discord server. *All genders welcome AND this workshop is designed for men to be allies. This idea resonated strongly with Gudrun's experiences: Of course women and other groups which are minorities in research have to speak out to fight for their place but things move forward only if people with power join the cause. At the moment people with power in mathematical research mostly means white men. That is true for the US where Stephanie is working as well as in Germany. Allyship is a concept which was introduced by people of colour to name white people fighting for racial justice at their side. Of course, it is a concept which helps in all situations where a group is less powerful than another. Men working for the advancement of non-male mathematicians is strictly necessary in order for equality of chances and a diversity of people in mathematics to be achieved in the next generation. And to be clear: this has nothing to do with counting heads but it is about not ruining the future of mathematics as a discipline by creating obstacles for mathematicians with minoritized identities. The important question is: How is it possible to educate men and especially powerful white men to become allies? The idea of this first workshop designed by Stephanie and Stan was to invite men already interested in learning more and to build a basis with the documentary Picture a scientist (2020). SYNOPSIS PICTURE A SCIENTIST chronicles the groundswell of researchers who are writing a new chapter for women scientists. Biologist Nancy Hopkins, chemist Raychelle Burks, and geologist Jane Willenbring lead viewers on a journey deep into their own experiences in the sciences, ranging from brutal harassment to years of subtle slights. Along the way, from cramped laboratories to spectacular field stations, we encounter scientific luminaries - including social scientists, neuroscientists, and psychologists - who provide new perspectives on how to make science itself more diverse, equitable, and open to all. (from the webpage) In this film there are no mathematicians, but the situations in sciences and mathematics are very similar and for that it lends itself to show the situation. In the podcast conversation Gudrun and Stephanie talk about why and in what way the documentary spoke to them. The huge and small obstacles in their own work as women mathematicians which do not make them feel welcome in a field they feel passionate about. The film shows what happens to women in Science. It shows also men in different roles. Obviously there are the bullies. Then there are the bystanders. There are universities which allow women to be hired and give them the smallest space available. But there are also men who consider themselves friends of their female collaegues who cannot believe that they did not notice how the behaviour of other men (and their own behavior in not taking a side). Seeing this play out over the course of the film is not a comfortable watch, and perhaps because of this discomfort, we hope to build empathy. On the other hand, there is a story of women scientists who noticed that they were not treated as well as their male colleagues and who found each other to fight for office space and the recognition of their work. They succeded a generation ago. The general idea of the workshop was to start with the documentary and to talk about different people and their role in the film in order to take them as prototypical for roles which we happen to observe in our life and which we might happen to play. This discussion in groups was moderated and guided in order to make this a safe space for everyone. Stephanie spoke about how we have to let men grow into their responsibility to speak out against a hostile atmosphere at university created mostly by men. In the workshop it was possible to first develop and then train for possible responses in situations which ask for men stepping in as an ally. The next iteration of the workshop Picture a Mathematician will be on May 11. Biography: Stephanie Salomone earned her Ph.D. in Mathematics from UCLA in 2005 and joined the faculty at the University of Portland that year. She serves as Professor and Chair of Mathematics and Director of the STEM Education and Outreach Center at UP, as well as the Faculty Athletic Representative. She is an Associate Director of Project NExT, a national professional development program for new higher-education mathematics faculty. She was the PI on the NSF REFLECT program, advancing the use of evidence-based practices in STEM teaching at UP and the use of peer-observation for formative assessment of teaching, and has managed a combined $1.6 million as the PI on a subaward of the Western Regional Noyce Alliance grant and as PI of the NSF Noyce Program at UP. She is on the Board of Directors for Saturday Academy, a local 501c3 whose mission is to engage children in hands-on STEM learning. Dr. Salomone is the recipient of UP’s 2009 Outstanding Teaching Award and the recipient of the 2019 Oregon Academy of Sciences Outstanding Educator in STEM Higher Education Award. Literature and further information Allyship: What It Means to Be an Ally, Tulane university, School of social work Guide to allyship Ernest, Reinholz, and Shah: Hidden Competence: women’s mathematical participation in public and private classroom spaces, Educ Stud Math 102, 153–172 (2019). https://doi.org/10.1007/s10649-019-09910-w J.R. Cimpian, T.H. Kimand, Z.T. McDermott: Understanding persistent gender gaps in STEM, Science 368, Issue 6497, 1317-1319 (2020). https://doi.org/10.1126/science.aba7377 S.J. Ceci and W.M. Williams: Understanding current causes of women’s underrepresentation in science PNAS 108 3157–3162 (2011). https://doi.org/10.1073/pnas.1014871108 Inquirybased learning site Equatiy and teaching math Blog post by Stan Yoshinobu Podcasts Mathematically uncensored Podcast
1/27/2022 • 53 minutes, 23 seconds
Tiefdruckbenetzung
Gudrun spricht in dieser Folge mit Pauline Brumm von der TU Darmstadt über Benetzung im Tiefdruck. Sie ist wissenschaftliche Mitarbeiterin am Institut für Druckmaschinen und Druckverfahren und promoviert im SFB 1194 zur Mechanischen Zwangsbenetzung von Oberflächen durch gravierte Tiefdruckzylinder im Teilprojekt C01. Es handelt sich um eine Weiterführung des Gesprächs mit Dr. Mathis Fricke im Modellansatz-Podcast Folge 242 über Dynamische Benetzung. Herr Fricke hatte über die Arbeit im SFB 1194 aus Sicht der Mathematik berichtet, Frau Brumm liefert in dieser Folge nun einen Beitrag aus Sicht der Anwendung. Sie hat Maschinenbau im Bachelor und Master an der TU Darmstadt studiert und sich auf Drucktechnik spezialisiert. Drucken wird seit hunderten von Jahren praktiziert und angewendet, jedoch gibt es bisher noch keine umfassende Modellbildung für viele Druckprozesse. Das bedeutet, dass ein Großteil des Wissens empirisch geprägt ist. Firmen stützen sich auf die Erfahrung von gelernten Drucktechnikern, jedoch ist diese Erfahrung nur selten öffentlich zugänglich und es gibt wenige Forschungsinstitute weltweit zum Thema Drucktechnik. Um innovative Anwendungen zu entwickeln, zum Beispiel aus dem Bereich der gedruckten Elektronik, bedarf es jedoch einer detaillierten Modellvorstellung des Druckprozesses, um klassische Druckverfahren aus dem grafischen Druck (Zeitungsdruck, Verpackungsdruck etc.) für den sogenannten „funktionalen Druck“ nutzbar zu machen. Die Schwierigkeit liegt darin, dass an den funktionalen Druck ganz andere Anforderungen gestellt werden, zum Beispiel müssen die gedruckten, häufig ultradünnen Schichten geschlossen, fehlerfrei und von konstanter Schichtdicke sein. Ein häufiger Druckfehler ist das sogenannte „Viscous Fingering“, eine hochdynamische Grenzflächeninstabilität bei der Fluidübertragung, die sich in Form von faszinierenden, verästelten, fingerartigen Strukturen in der gedruckten Schicht bemerkbar macht. Sie sehen so ähnlich aus wie die Arme eines Flussdeltas aus Vogelperspektive oder die Wurzeln von Bäumen. In ihrer Forschung untersucht Frau Brumm diese verästelten Strukturen im Tiefdruck, um sie besser zu verstehen und um den Druckfehler in Zukunft zu verhindern oder für spezielle Anwendungen nutzbar zu machen. Beim Tiefdruck wird die Farbe über gravierte Näpfchen in einem Druckzylinder übertragen. Die Näpfchen liegen vertieft und sind nur wenige zehn Mikrometer groß. Beim Kontakt mit dem zu bedruckenden Substrat (Papier, Folie, Glas…) wird die Druckfarbe unter hohem Druck und hoher Geschwindigkeit aus den Näpfchen herausgesaugt. Es kommt zur Zwangsbenetzung des Substrats. Mit Stokes-Gleichungen kann man Parametermodelle herleiten, welche das Skalierungsverhalten der verästelten, gedruckten Strukturen beschreiben. Zum Beispiel skaliert der dominante Abstand der gedruckten Strukturen mit der Druckgeschwindigkeit hoch minus ein Halb laut Sauer et al. (2015), welches dem 60 Jahre alten Skalengesetz von Saffman und Taylor (1958) entspricht. Mit Experimenten können diese Modelle bestätigt oder widerlegt werden. Die Planung von Experimenten geschieht zielgerichtet. Im Vorfeld muss überlegt werden, welche Parameter im Experiment variiert werden sollen und wie viele Messpunkte benötigt werden, um statistisch abgesicherte Aussagen treffen zu können. Meistens ist die Herausforderung, die Vielzahl der Parameterkombinationen auf ein Minimum zu reduzieren und dennoch die gewünschten Aussagen treffen zu können. Die gedruckten Proben werden hochauflösend mit einem Flachbettscanner digitalisiert und danach werden Bildverarbeitungsmethoden in den ingenieurstypischen Programmiersprachen Matlab oder Python angewendet. Beispielsweise wird eine Fast Fourier Transformation (FFT) benutzt, um den dominanten Abstand der gedruckten Strukturen zu ermitteln. Die Automatisierung des Experiments und vor allem der anschließenden Auswertung ist ein weiterer wichtiger Punkt. Um zehntausende von gedruckten Mustern zu analysieren, wurde ein hochautomatisierter computergestützter Workflow entwickelt. Seit kurzem wird von Frau Brumm auch Künstliche Intelligenz, genauer gesagt Deep Learning, zur Klassifizierung der gedruckten Muster verwendet. Dies ist notwendig, um die Skalierbarkeit hin zu industriellen Prozessen zu ermöglichen, indem umfangreiche Versuchsreihen an industriellen Maschinen durchgeführt und automatisiert ausgewertet werden. Diese werden anschließend mit kleineren Versuchsreihen an speziell entwickelten Labormaschinen verglichen, bei denen teilweise auch Modellfluide anstelle von realen Druckfarben verwendet werden. Bei Laborexperimenten werden in Teilprojekt C01 im SFB 1194 auch Hochgeschwindigkeitsvideos der hochdynamischen Grenzflächeninstabilität aufgenommen, die noch tiefere Einblicke in die Strömungsdynamik bieten und die industriellen Experimente ergänzen und erklären sollen. Der Maschinenbau ist sehr breit gefächert und das Studium muss dementsprechend auch breite Kenntnisse vermitteln. Beispielsweise werden umfangreiche Methoden aus der Mathematik gelehrt, damit ein/e Maschinenbau-Absolvent/in für die diversen Anwendungsaufgaben gerüstet ist. In der modernen Forschung ist die Fähigkeit zur interdisziplinären Zusammenarbeit und zur Wissenschaftskommunikation sehr entscheidend. Maschinenbauer/innen im SFB 1194 arbeiten beispielsweise mit Mathematikern/innen, Physikern/innen und Informatikern/innen zusammen, um eine größere Forschungsfrage zu beantworten. In dieser Podcast-Folge wird auch an junge Frauen appelliert, ein MINT-Studium auszuprobieren, um mehr Diversität im Studium, Forschung und Industrie zu erreichen, um am Ende noch innovativere Lösungen zu schaffen, die der Welt einen Nutzen bringen. Literatur und weiterführende Informationen Pauline Brumm, Tim Eike Weber, Hans Martin Sauer, and Edgar Dörsam: Ink splitting in gravure printing: localization of the transition from dots to fingers. J. Print Media Technol. Res. Vol. 10 No. 2 (2021), 81-93 Pauline Brumm, Hans Martin Sauer, and Edgar Dörsam: Scaling Behavior of Pattern Formation in the Flexographic Ink Splitting Process. Colloids and Interfaces, Vol. 3 No. 1 (2019), 37 Hans Martin Sauer; Dominik Daume, and Edgar Dörsam: Lubrication theory of ink hydrodynamics in the flexographic printing nip. Journal of Print and Media Technology Research, Vol. 4 No. 3 (2015), 163-172 Julian Schäfer, Ilia V. Roisman, Hans Martin Sauer, and Edgar Dörsam: Millisecond fluid pattern formation in the nip of a gravure printing machine. Colloids and Surfaces A: Physicochemical and Engineering Aspects, Vol. 575 (2019), 222-229 Philip Geoffrey Saffman, and Geoffrey Ingram Taylor: The penetration of a fluid into a porous medium or Hele-Shaw cell containing a more viscous liquid. Proceedings of the Royal Society of London. Series A. Mathematical and Physical Sciences Vol. 245 No. 1242 (1958), 312-329 Podcasts M. Fricke, G. Thäter: Dynamische Benetzung, Gespräch im Modellansatz Podcast, Folge 242, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2021. M. Haragus, G. Thäter: Pattern Formation, Conversation im Modellansatz Podcast, Episode 227, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. S. Winter: Fraktale Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 120, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Lerch, G. Thaeter: Machine Learning, Gespräch im Modellansatz Podcast, Folge 232, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2020.
12/24/2021 • 49 minutes, 21 seconds
Benchmark OpenLB
Gudrun spricht in dieser Folge mit Sarah Bischof, Timo Bohlig und Jonas Albrecht. Die drei haben im Sommersemester 2021 am Projektorientiertes Softwarepraktikum teilgenommen. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle, die Idee von Lattice-Boltzmann-Methoden und die Nutzung der Hochleistungrechner am KIT. Außerdem finden sie sich für ein einführendes kleines Projekt in Gruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert oder es wird eine Podcastfolge aufgenommen. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Sarah, Timo und Jonas sind am KIT im Masterstudiengang Chemieingenieurwesen eingeschrieben. Neben den verschiedenen Masterstudiengängen Mathematik kommen aus diesem Studiengang die meisten Interessenten für das Softwarepraktikum. Im Podcast erläutern sie, was sie an der Strömungssimulation interessiert und inwieweit sie sich gut oder auch nicht so gut auf die Anforderungen vorbereitet gefühlt haben, wie sie sich die Arbeit in der Gruppe aufgeteilt haben und was sie an fachlichen und überfachlichen Dingen dort gelernt haben. Das Thema des Projektes war ein Benchmark für die Durchströmung der Aorta. Dies ist einer der Showcases für OpenLB, die auf den ersten Blick die Leistungsfähigkeit der Software demonstrieren sollen. Das Projekt wurde von der Gruppe in drei Teile gegliedert: Benchmark Test auf dem bwUniCluster 2.0 (High Performance Computer) Performance Analyse mit selbstgeschriebener Source Code Erweiterung Performance Analyse mit externer Software (Validierung der Source Code Erweiterung) Mit Hilfe der Benchmark Tests auf dem HPC konnte die maximale Skalierbarkeit des Aorta Source Codes in Abhängigkeit der Problemgröße gefunden werden. Sie gibt an, auf wie vielen Computerprozessoren der Showcase mit der höchsten Performance simuliert werden kann. Des Weiteren wurde die parallele Effizienz mit Hilfe der Speedup Kennzahl untersucht. Diese beschreibt inwiefern sich die Simulationszeit infolge von Erhöhung der Prozessoranzahl verringert. In beiden Fällen zeigten die Performanceindikatoren ein Maximum bei 400-700 Prozessoreinheiten für Problemgrößen bis zu einer Resolution von N = 80. Das Softwarepaket OpenLB beinhaltet in Release 1.4r0 keine detaillierten Schnittstellen zur Performancemessung. Durch eine Source Code Erweiterung konnte eine interne Zeitmessung der einzelnen Funktionen des Codes realisiert werden. Dabei wurden so genannte Bottlenecks identifiziert und dokumentiert, welche durch Updates in zukünftigen Versionen der Software eliminiert werden sollen. Des Weiteren konnte auch durch die Code Erweiterung eine Aussage über die Parallelisierung getroffen werden. Im Vergleich zu den Benchmark Tests können direkt Funktionen des Source Codes, die die Parallelisierung hemmen, bestimmt werden. Die Performance Analyse durch das externe Programm und durch die Source Code Erweiterung bestätigen eine gut funktionierende Parallelisierung. Die Realisierung erfolgte dabei durch die Messung der Laufzeit der Hauptschritte einer OpenLB Simulation, sowie der detaillierten Analyse einzelner Funktionen. Diese finden sich zum aktuellen Zeitpunkt im Post-Processing des "Collide And Stream" Schrittes der Simulation. Collide And Stream beschreibt einen lokalen Berechnungsschritt, einen lokalen und einen nicht lokalen Übertragungsschritt. Der Kollisionsschritt bestimmt ein lokales Gleichgewicht der Massen-, Momenten- und Energiebilanzen. Im nicht-lokalen Streaming Schritt werden diese Werte auf die angrenzenden Blöcke des Simulationsgitters übertragen. Dies ermöglicht im Vergleich zu CFD-Simulationen, die auf Basis der Finite-Volumen-Methode (FVM) die Navier-Stokes Gleichungen lösen, effizientere Parallelisierung insbesondere bei Einsatz einer HPC-Einheit. Die Post Prozessoren im Collide And Stream wenden unter anderem bestimmte, im vorangegangenen Schritt gesetzte Randbedingungen auf definierte Bereiche der Simulationsgeometrie an. Sie werden dabei nur für nicht-lokale Randbedingungen verwendet, weitere Randbedingungen können auch innerhalb des Kollisionsschrittes modelliert werden. Im Showcase der Aorta ist für das Fluid (Blut) am Eingang der Simulation eine Geschwindigkeits-Randbedingung nach Bouzidi mit Poiseuille-Strömungsprofil und am Ausgang eine "stress-free" Bedingung gewählt. Für die Aortawand ist eine no-slip Bedingung mit Fluidgeschwindigkeit null implementiert (Für genauere Informationen zum Simulationsaufbau hier und hier. Die Laufzeit der Post-Processor Funktionen, deren Aufgabe es ist die Randbedingungen anzuwenden, können mit dem Timer des Release 1.4r0 nicht analysiert werden. Mit Blick auf spätere Releases ist es mit der Source Code Erweiterung nun möglich mit geringem Aufwand Daten über die Effizienz der vorhandenen, neuer oder verbesserter Funktionen in OpenLB zu gewinnen. Eine integrierte Zeitmessung als Analysetool kann einen direkten Einfluss auf die Performance des Source Codes haben, weshalb mit Hilfe der externen Software AMDµProf die Bottlenecks validiert wurden. Sowohl bei der internen als auch externe Performance Analyse sind die selben Post-Processing Schritte als Bottlenecks erkennbar, welches die Code Erweiterung validiert. Zusätzlich konnte mit der AMDμProf-Software die aktuelle OpenLB Version 1.4r0 mit der vorherigen Version 1.3r1 verglichen werden. Dabei fällt auf, dass sich die Bottlenecks vom Berechnungsschritt in Collide And Stream (Release 1.3r1) zum Post-Processing Schritt in Collide And Stream (Release 1.4r0) verschoben haben. Abschließend wurde eine vektorisierte Version von OpenLB erfolgreich getestet und ebenfalls auf Bottlenecks untersucht. Eine Vektorisierung eines Codes, auch bekannt als SIMD, soll die Parallelisierung verbessern und der Aorta Simulation eine bessere Performance verleihen. Das Bottleneck des Post-Processing Schritts in Collide And Stream, speziell durch Implementierung neuer Bouzidi Boundaries, wurde durch eine weitere Gruppe im Rahmen des Projektorientierten Softwarepraktikums optimiert. Es konnte eine Performance Verbesserung um einen Faktor 3 erreicht werden (mit OpenMP Compiler). Durch eine gezielte Analyse der Bottlenecks im Code konnte das Potential für die Beschleunigung der Simulation erweitert werden. Aber natürlich lohnt es sich hier weiterhin anzusehen, wo noch konkretes Potential für die Beschleunigung der Simulation liegt. Zumal seit dem letzten Relounch einige Pardigmen in der Software OpenLB verändert wurden. Podcasts L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.A. Bayer, T. Braun, G. Thäter: Binärströmung, Gespräch im Modellansatz Podcast, Folge 218, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. Literatur und weiterführende Informationen Showcase blood flow simulation auf der Seite der Software OpenLBAortic Coarctation Simulation Based on the Lattice Boltzmann Method: Benchmark Results, Henn, Thomas;Heuveline, Vincent;Krause, Mathias J.;Ritterbusch, SebastianMRI-based computational hemodynamics in patients with aortic coarctation using the lattice Boltzmann methods: Clinical validation study; Mirzaee, Hanieh;Henn, Thomas;Krause, Mathias J.;Goubergrits, Leonid; Schumann, Christian; Neugebauer, Mathias; Kuehne, Titus; Preusser, Tobias; Hennemuth, Anja
8/20/2021 • 34 minutes, 42 seconds
Dynamische Benetzung
Gudrun spricht in dieser Folge mit Mathis Fricke von der TU Darmstadt über Dynamische Benetzungsphänomene. Er hat 2020 in der Gruppe Mathematical Modeling and Analysis bei Prof. Dieter Bothe promoviert. Diese Gruppe ist in der Analysis und damit in der Fakultät für Mathematik angesiedelt, arbeitet aber stark interdisziplinär vernetzt, weil dort Probleme aus der Verfahrenstechnik modelliert und simuliert werden. Viele Anwendungen in den Ingenieurwissenschaften erfordern ein tiefes Verständnis der physikalischen Vorgänge in mehrphasigen Strömungen, d.h. Strömungen mit mehreren Komponenten. Eine sog. "Kontaktlinie" entsteht, wenn drei thermodynamische Phasen zusammenkommen und ein komplexes System bilden. Ein typisches Beispiel ist ein Flüssigkeitströpfchen, das auf einer Wand sitzt (oder sich bewegt) und von der Umgebungsluft umgeben ist. Ein wichtiger physikalischer Parameter ist dabei der "Kontaktwinkel" zwischen der Gas/Flüssig-Grenzfläche und der festen Oberfläche. Ist der Kontaktwinkel klein ist die Oberfläche hydrophil (also gut benetzend), ist der Kontaktwinkel groß ist die Oberläche hydrophob (schlecht benetzend). Je nach Anwendungsfall können beide Situationen in der Praxis gewollt sein. Zum Beispiel können stark hydrophobe Oberflächen einen Selbstreinigungseffekt aufweisen weil Wassertropfen von der Oberfläche abrollen und dabei Schmutzpartikel abtransportieren (siehe z.B. https://de.wikipedia.org/wiki/Lotoseffekt). Dynamische Benetzungsphänomene sind in Natur und Technik allgegenwärtig. Die Beine eines Wasserläufers nutzen eine ausgeklügelte hierarchische Oberflächenstruktur, um Superhydrophobie zu erreichen und das Insekt auf einer Wasseroberfläche leicht stehen und laufen zu lassen. Die Fähigkeit, dynamische Benetzungsprozesse zu verstehen und zu steuern, ist entscheidend für eine Vielzahl industrieller und technischer Prozesse wie Bioprinting und Tintenstrahldruck oder Massentransport in Mikrofluidikgeräten. Andererseits birgt das Problem der beweglichen Kontaktlinie selbst in einer stark vereinfachten Formulierung immer noch erhebliche Herausforderungen hinsichtlich der fundamentalen mathematischen Modellierung sowie der numerischen Methoden. Ein übliche Ansatz zur Beschreibung eines Mehrphasensystems auf einer makroskopischen Skala ist die Kontinuumsphysik, bei der die mikroskopische Struktur der Materie nicht explizit aufgelöst wird. Andererseits finden die physikalischen Prozesse an der Kontaktlinie auf einer sehr kleinen Längenskala statt. Man muss daher das Standardmodell der Kontinuumsphysik erweitern, um zu einer korrekten Beschreibung des Systems zu gelangen. Ein wichtiges Leitprinzip bei der mathematischen Modellierung ist dabei der zweite Hauptsatz der Thermodynamik, der besagt, dass die Entropie eines isolierten Systems niemals abnimmt. Dieses tiefe physikalische Prinzip hilft, zu einem geschlossenen und zuverlässigen Modell zu kommen. Die größte Herausforderung in der kontinuumsmechanischen Modellierung von dynamischen Benetzungsprozessen ist die Formulierung der Randbedingungen für die Navier Stokes Gleichungen an der Festkörperoberfläche sowie am freien Rand zwischen Gas und Flüssigkeit. Die klassische Arbeit von Huh und Scriven hat gezeigt, dass die übliche Haftbedingung ("no slip") an der Festkörperoberfläche nicht mit einer bewegten Kontaktlinie und damit mit einem dynamischen Benetzungsprozess verträglich ist. Man kann nämlich leicht zeigen, dass die Lösung für die Geschwindigkeit in diesem Fall unstetig an der Kontaktlinie wäre. Weil das Fluid (z.B. Wasser) aber eine innere Reibung (Viskosität) besitzt, würde dann mit einer unendlichen Rate ("singulär") innere Energie in Wärme umgewandelt ("dissipiert"). Dieses Verhalten ist offensichtlich unphysikalisch und zeigt dass eine Anpassung des Modells nötig ist. Einer der wesentlichen Beiträge von Mathis Dissertation ist die qualitative Analyse von solchen angepassten Modellen (zur Vermeidung der unphysikalischen Singularität) mit Methoden aus der Geometrie. Die Idee ist hierbei eine systematische Untersuchung der "Kinematik", d.h. der Geometrie der Bewegung der Kontaktlinie und des Kontaktwinkels. Nimmt man das transportierende Geschwindigkeitsfeld als gegeben an, so kann man einen fundamentalen geometrischen Zusammenhang zwischen der Änderungsrate des Kontaktwinkels und der Struktur des Geschwindigkeitsfeldes herleiten. Dieser geometrische (bzw. kinematische) Zusammenhang gilt universell für alle Modelle (in der betrachteten Modellklasse) und erlaubt tiefe Einsichten in das qualitative Verhalten von Lösungen. Neben der mathematischen Modellierung braucht man auch numerische Werkzeuge und Algorithmen zur Lösung der resultierenden partiellen Differentialgleichungen, die typischerweise eine Variante der bekannten Navier-Stokes-Gleichungen sind. Diese nichtlinearen PDE-Modelle erfordern eine sorgfältige Auswahl der numerischen Methoden und einen hohen Rechenaufwand. Mathis entschied sich für numerische Methoden auf der Grundlage der geometrischen VOF (Volume-of-Fluid) Methode. Die VOF Methode ist eine Finite Volumen Methode und basiert auf einem diskreten Gitter von würfelförmigen Kontrollvolumen auf dem die Lösung des PDE Systems angenähert wird. Wichtig ist hier insbesondere die Verfolgung der räumlichen Position der freien Grenzfläche und der Kontaktlinie. In der VOF Methode wird dazu für jede Gitterzelle gespeichert zu welchem Anteil sie mit Flüssigkeit bzw. Gas gefüllt ist. Aus dieser Information kann später die Form der freien Grenzfläche rekonstruiert werden. Im Rahmen von Mathis Dissertation wurden diese Rekonstruktionsverfahren hinsichtlich Ihrer Genauigkeit nahe der Kontaktlinie weiterentwickelt. Zusammen mit komplementären numerischen Methoden sowie Experimenten im Sonderforschungsbereich 1194 können die Methoden in realistischen Testfällen validiert werden. Mathis hat sich in seiner Arbeit vor allem mit der Dynamik des Anstiegs einer Flüssigkeitssäule in einer Kapillare sowie der Aufbruchdynamik von Flüssigkeitsbrücken (sog. "Kapillarbrücken") auf strukturierten Oberflächen beschäftigt. Die Simulation kann hier als eine numerische "Lupe" dienen und Phänomene sichtbar machen die, z.B wegen einer limitierten zeitlichen Auflösung, im Experiment nur schwer sichtbar gemacht werden können. Gleichzeitig werden die experimentellen Daten genutzt um die Korrektheit des Modells und des numerischen Verfahrens zu überprüfen. Literatur und weiterführende Informationen Fricke, M.: Mathematical modeling and Volume-of-Fluid based simulation of dynamic wetting Promotionsschrift (2021). de Gennes, P., Brochard-Wyart, F., Quere, D.: Capillarity and Wetting Phenomena, Springer (2004). Fricke, M., Köhne, M., Bothe, D.: A kinematic evolution equation for the dynamic contact angle and some consequences. Physica D: Nonlinear Phenomena, 394, 26–43 (2019) (siehe auch arXiv). Fricke, M., Bothe, D.: Boundary conditions for dynamic wetting – A mathematical analysis. The European Physical Journal Special Topics, 229(10), 1849–1865 (2020). Gründing, D., Smuda, M., Antritter, T., Fricke, M., Rettenmaier, D., Kummer, F., Stephan, P., Marschall, H., Bothe, D.: A comparative study of transient capillary rise using direct numerical simulations, Applied Mathematical Modelling (2020) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the geometrical Volume-of-Fluid method, Journal of Computational Physics (2020) (siehe auch arXiv) Hartmann, M., Fricke, M., Weimar, L., Gründing, D., Marić, T., Bothe, D., Hardt, S.: Breakup dynamics of Capillary Bridges on Hydrophobic Stripes, International Journal of Multiphase Flow (2021) Fricke, M., Köhne, M. and Bothe, D.: On the kinematics of contact line motion, Proceedings in Applied Mathematics and Mechanics (2018) Fricke, M., Marić, T. and Bothe, D.: Contact line advection using the Level Set method, Proceedings in Applied Mathematics and Mechanics (2019) Huh, C. and Scriven, L.E: Hydrodynamic model of steady movement of a solid/liquid/fluid contact line, Journal of Colloid and Interface Science (1971) Bothe, D., Dreyer, W.: Continuum thermodynamics of chemically reacting fluid mixtures. Acta Mechanica, 226(6), 1757–1805. (2015). Bothe, D., Prüss, J.: On the Interface Formation Model for Dynamic Triple Lines. In H. Amann, Y. Giga, H. Kozono, H. Okamoto, & M. Yamazaki (Eds.), Recent Developments of Mathematical Fluid Mechanics (pp. 25–47). Springer (2016). Podcasts Sachgeschichte: Wie läuft der Wasserläufer übers Wasser? G. Thäter, S. Claus: Zweiphasenströmungen, Gespräch im Modellansatz Podcast, Folge 164, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018 M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
7/11/2021 • 1 hour, 6 minutes, 26 seconds
Moving Asymptotics
Gudrun spricht in dieser Folge mit Attila Genda über sein Praktikum bei Dassault Systèmes (Standort Karlsruhe), das er m Frühjahr und Sommer 2020 im Rahmen seines Masterstudiums Technomathematik absolviert hat. Bei Dassault Systèmes in Karlsruhe wird schon seit einigen Jahrzehnten Strukturoptimierung betrieben. Wir haben dort auch schon einige Podcastfolgen zu den mathematischen Hintergründen und den aktuellen Weiterentwicklungen aufgenommen (s.u.). Für die numerische Lösung der betrachteten partiellen Differentialgleichungen werden Finite Elemente Verfahren eingesetzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”zulässig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um konkrete Probleme zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, die jeweils auf die Aufgabenstellung zugeschnitten werden. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Strukturoptimierung verändert die Form eines Bauteils oder einer Baugruppe so, dass weniger Material nötig ist, aber vorgegebene Festigkeitsanforderungen (z.B. Spannungen, denen das Teil typischerweise ausgesetzt ist) erfüllt sind. Dabei darf sich die Materialverteilung frei in approximativen Schritten verändern und ist nicht durch eine Vorplanung der prinzipiell einzuhaltenden äußeren Form begrenzt. Dies führt z.B. zur Entstehung von Löchern in der Form des Bauteils, was die Topologie auch im mathematischen Sinne verändert. Das ist kompliziert und einfach zugleich - je nachdem, unter welchem Blickwinkel man es betrachtet. Die Einfachheit ergibt sich aus der Tatsache, dass keine Zellen aus dem numerischen Netz der Numerik entfernt werden. Man setzt einfach eine Variable, die angibt, ob dort Material vorhanden ist oder nicht. Anstatt dies jedoch mit binären Werten zu tun (d.h. Material "an" oder "aus"), ändert man die Materialdichte der Zelle kontinuierlich zwischen [0, 1]. Dabei steht 0 für kein Material und 1 für die volle Materialmenge. Um numerische Probleme zu vermeiden wird statt 0 eine kleine Zahl verwendet. Da diese Modellierung im Allgemeinen zu physikalisch nicht interpretierbaren Ergebnissen führt, bei denen die Zellen weder leer sind noch die volle Menge an Material enthalten, müssen wir sicherstellen, dass der Optimierer dazu neigt, Ergebnisse zu finden, bei denen die Anzahl der Zellen mit mittlerer Dichte minimal ist. Dazu bestrafen wir solche Konstruktionen. Diese Verfahren heißen Solid Isotropic Material with Penalization Method - kurz SIMP-Methode. Strukturoptimierungsaufgaben enthalten in der Regel eine sehr große Anzahl von Designvariablen, in der Praxis sind es nicht selten mehrere Millionen von Variablen, die die Zielfunktion beeinflussen. Demgegenüber ist die Zahl der Nebenbedingungen viel kleiner - oft gibt es sogar nur ein paar wenige. Da Strukturoptimierungsprobleme im Allgemeinem keine konvexen Promleme sind und oft auch keine linearen Probleme, ist die Auswertung des Zielfunktionals und der Nebenbedingungen sehr rechenintensiv. Deshalb wurden spezielle Algorithmen entwickelt, die besonders geeignet für die Lösung solcher Probleme sind, weil sie vermeiden können, dass bis zur Konvergenz eine große Anzahl von Funktionsauswertungen stattfinden müssen. Der wahrscheinlich meist verbreitete Algorithmus heißt Method of Moving Asymptotes (MAA). Er wird in der Podcastepisode diskutiert. Die Aufgabe von Attila in seiner Zeit des Praktikums war es nämlich, diese Methode zu verallgemeinern, dann zum implementieren und die Implementierung zu testen. Die ursprünglich angewandte MAA-Methode, die von Svanberg vorgeschlagen wurde, verwendet nur einen sehr einfachen Ansatz zur Behandlung der Länge des Intervalls zwischen der unteren und oberen Asymptote. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. doi C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. K. Svanberg: The method of moving asymptotes—a new method for structural optimization, International Journal for Numerical Methods in Engineering, 1987 Podcasts H. Benner, G. Thäter: Formoptimierung, Gespräch im Modellansatz Podcast, Folge 212, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
6/20/2021 • 49 minutes, 42 seconds
Ginkgo
Gudrun spricht mit Hartwig Anzt. Er leitet die Helmholtz-Nachwuchsgruppe Fixed-point methods for numerics at Exascale (FiNE) am SCC. Seine Forschung beschäftigt sich mit numerischer linearer Algebra in modernen Hochleistungsrechnersystemen. Angesichts des explosionsartigen Anstiegs der Hardware-Parallelität erfordert die effiziente Ausführung von Anwendungen auf solchen Systemen eine völlige Neugestaltung der zugrunde liegenden numerischen Methoden. Dieses neue Paradigma muss Implementierungen umfassen, die sich auf die Parallelität auf Knotenebene, ein reduziertes globales Kommunikationsvolumen und abgeschwächte Synchronisationsanforderungen konzentrieren. Hartwig ist Teil des PEEKS und xSDK-Projekts und leitet die Multiprecision-Initiative im US Exascale Computing Project (ECP). Das Ziel dieser Initiative besteht darin, die Nutzung verschiedener arithmetischer Präzisionen in numerische Algorithmen zu erforschen, wodurch viele Algorithmen beschleunigt werden können, ohne dabei Genauigkeit einzubüßen. Hartwigs Forschungsschwerpunkt liegt auf der Entwicklung und Optimierung numerischer Methoden für effizientes Hochleistungsrechnen. Insbesondere interessiert er sich für lineare Algebra für dünn besetzte Matrizen, iterative und asynchrone Methoden, Krylov-Löser und Vorkonditionierung. Die zugrundeliegende Idee besteht darin, numerische Probleme als Fixpunktprobleme umzuformulieren, um höhere Parallelisierungsgrade zu ermöglichen. Die Implementierung der Fixpunktmethoden macht typischerweise starken Gebrauch von (datenparallelen) Batch-Routinen und weist schwache Synchronisationsanforderungen auf. Die Algorithmenforschung wird ergänzt durch Bemühungen, die auf eine nachhaltige Software-Entwicklung in einem akademischen Umfeld und einen gesunden Software-Lebenszyklus abzielen. Ein Ergebnis dieser Bemühungen ist Ginkgo, eine Open Source Softwarebibliothek für numerische lineare Algebra mit dem Fokus auf Löser für dünn besetzte Systeme, die Hartwig ins Leben gerufen hat. Bei dem Stichwort Software-Nachhaltigkeit könnte man an das Vorhandensein eines Continuous Integration (CI)-Frameworks denken, also das Vorhandensein eines Test-Frameworks, das aus Unit-Tests, Integrationstests und End-to-End-Tests besteht (inkl. das Vorhandensein einer Software-Dokumentation). Wenn man jedoch fragt, was der übliche Todesstoß für ein wissenschaftliches Softwareprodukt ist, ist es oft die fehlende Plattform- und Leistungsportabilität. Vor diesem Hintergrund haben Hartwig und seine Gruppe wir Ginkgo-Bibliothek mit dem primären Fokus auf Plattform-Portabilität und der Fähigkeit, nicht nur auf neue Hardware-Architekturen zu portieren, sondern auch eine gute Performance zu erreichen, entwickelt. Die grundlegende Idee beim Design der Ginkgo-Bibliothek ist eine radikale Trennung der Algorithmen von den hardwarespezifischen Dingen. Daneben sprechen Gudrun und Hartwig über die Nutzung von Kalkülen mit geringer Genauigkeit für letztendlich präzise Algorithmen. Die Hardware-Anbieter haben nämlich damit begonnen, spezielle Funktionseinheiten mit geringer Genauigkeit zu entwickeln, um der Nachfrage z.B. der Machine-Learning-Community und deren Bedarf an hoher Rechenleistung in Formaten mit geringer Genauigkeit zu entsprechen. Hartwig konzentriert sich darauf, wie dann Mixed- und Multiprecision-Technologie helfen kann, die Leistung dieser Methoden zu verbessern und findet Anwendungen, die die traditionellen Methoden mit fester Genauigkeit deutlich übertreffen. Literatur und weiterführende Informationen Hartwig Anzt e.a.: Iterative sparse triangular solves for preconditioning European conference on parallel processing, 650-661 (2015). Ginkgo Numerik für lineare Algebra Paket Terry Cojean, Yu-Hsiang -Mike- Tsai, Hartwig Anzt: Ginkgo - A Math Library designed for Platform Portability 2020. Hartwig Anzt e.a.: An Environment for Sustainable Research Software in Germany and Beyond: Current State, Open Challenges, and Call for Action 2020. Podcasts Exascale Computing Project Episode 47: Hartwig Anzt - Developing Multiprecision Algorithms with the Ginkgo Library Project, 2019. Exascale Computing Project - alle Folgen. C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
5/27/2021 • 54 minutes, 37 seconds
Oszillationen
Diese Folge entstand im Rahmen eines Projekts zur Modellbildungsvorlesung von Gudrun. Es ist eine Arbeit von Yannik Brenner, Bastian Hasenclever und Urs Malottke, die das Ziel haben, in einigen Jahren Mathematik und Physik am Gymnasium zu unterrichten. Außerdem macht Yannik selbst Musik und hat sich deshalb ganz praktisch mit Schwingungen an der Gitarre beschäftigt. Die drei hatten die Idee, dass man das Thema Schwingunge interessant für die Schule aufbereiten kann, wenn es dazu auch Hörbeispiele gibt. Deshalb haben Sie sich an einen Tisch gesetzt, das Gespräch und die Hörbeispiele aufgenommen und schließlich den Text dazu aufgeschrieben. Der harmonische Oszillator spielt eine wichtige Rolle zur Modellierung verschiedenster physikalischer Sachverhalte. Daher bietet es sich an, ihn schon in der Schule zu thematisieren, wo er auch in der Oberstufe im Bildungsplan zu finden ist. Während im Podcast der Versuch unternommen wurde, ein Grundverständnis für das Thema ohne formale Zusammenhänge zu entwickeln, sollen hier zusätzlich die mathematischen Hintergründe gemeinsam mit einigen Abbildungen ergänzt werden. Die didaktischen Aspekte, die in der Episode zur Sprache kommen, spielen im folgenden Text jedoch nur eine untergeordnete Rolle. Grundlegendes Ein Oszillator ist ein System, das um einen bestimmten Punkt, in der Regel Ruhepunkt oder auch die Ruhelage genannt, schwingen kann. Befindet sich das System in Ruhe in dieser Ruhelage, passiert ohne die Einwirkung äußerer Kräfte nichts; wird das System von diesem Punkt ausgelenkt, wird es durch eine rückstellende Kraft wieder Richtung Ruhepunkt beschleunigt. Der Zusatz "harmonisch" bedeutet, dass die Rückstellkraft linear von der Auslenkung zum Ruhepunkt abhängt, also proportional zur Auslenkung zunimmt. Der Graph der Bewegungsfunktion ist eine Sinus- oder Cosinus-Kurve. Die einfachsten und wohl auch bekanntesten Beispiele eines Oszillators im Bereich der Mechanik sind das Faden- und das Federpendel. Beim Fadenpendel ist der niedrigste Punkt die Ruhelage und die Rückstellkraft resultiert aus der Gravitationskraft. Beim Federpendel stellt die Federkraft die rückstellende Kraft dar. Eigenschaften eines harmonischen Oszillators Ein schwingfähiges System besitzt verschiedene Eigenschaften, mit deren Hilfe das gesamte System beschrieben werden kann. Um den harmonischen Oszillator zu verstehen, kann man sich zuerst die Bewegungsgleichung ansehen, also die Gleichung, die die aktuelle Lage des Systems beschreibt. Ausgangspunkt ist die Rückstellkraft, die im mechanischen Fall linear von der Auslenkung zur Ruhelage, also dem aktuellen Ort, abhängt (auf nicht-mechanische Einsatzgebiete wird später eingegangen). Die Rückstellkraft kann mit einer Variablen , die von verschiedenen Merkmalen des Systems abhängt, gemeinsam mit dem Ort also als dargestellt werden. Die Kraft kann auch als Beschleunigung , also der zweifachen Ableitung des Ortes, mal der Masse ausgedrückt werden, wodurch die Formel auch folgendermaßen aussehen kann: Diese Art von Formeln, in der eine Größe gemeinsam mit einer ihrer Ableitungen auftritt, wird Differentialgleichung genannt. Das Erarbeiten einer Lösung ist leichter, wenn durch die Gleichung vereinfacht wird. wird die Eigenfrequenz des Systems genannt und gibt außerdem an, wie viele Schwingungen das System in einer bestimmten Zeit, oftmals einer Sekunde, macht, wenn keine anderen Kräfte vorliegen. Somit ergibt sich Die Lösung der Funktion für den Ort muss eine Funktion sein, die nach zweimaligem Ableiten bis auf einen Vorfaktor und das Vorzeichen wieder die Ursprungsfunktion ist. Deshalb sind Sinus- und Cosinus-Funktionen, oder die äquivalente Darstellung durch die e-Funktion (siehe Eulersche Formel), Lösungen. Werden nun gewählt, wobei und die Amplituden, also maximalen Auslenkungen der Schwingungen darstellen, kann mit den Ableitungsregeln überprüft werden, dass dies Lösungen für die Bewegungsgleichung sind. Als Summe zweier Lösungen ist auch Eine Lösung, die die allgemeine Lösung genannt wird. Die beiden Amplituden der einzelnen Sinus-/Kosinus-Funktion müssen dabei aus Anfangsbedingungen bestimmt werden. Man sieht, dass die Amplitude der beobachtbaren Schwingung sein muss, also der maximalen Auslenkung, die beim Zeitpunkt vorliegt, da die Gesamtschwingung zum Zeitpunkt diese Auslenkung annehmen muss und zu diesem Zeitpunkt der Sinus verschwindet: Die Amplitude der Sinus-Funktion bestimmt sich nach und spielt daher dann eine Rolle, wenn zum Zeitpunkt bereits eine Geschwindigkeit vorliegt, das System also nicht aus der Ruhe losgelassen, sondern angestoßen wird. Zu besprechen ist allerdings noch, wie die Gleichung bei einem anderen Pendel als dem Federpendel aussieht. Das Prinzip des Oszillators bleibt gleich und somit natürlich auch die Mathematik, die ihn beschreibt. Allerdings setzt sich bei anderen Pendeln anders zusammen, da bei ihnen andere Rückstellkräfte und andere Systemeigenschaften eine Rolle spielen und nicht die Federkonstante und Masse wie beim Federpendel. So gilt beim Fadenpendel wobei die klassische Gravitationskonstante ist, die beim Fadenpendel eine große Rolle für die Rückstellkraft einnimmt, und die Fadenlänge darstellt. Werden Oszillatoren außerhalb der Mechanik betrachtet, beispielsweise der elektrische Schwingkreis, ergibt sich aus den Eigenschaften, die dieses System beschreiben. Beim elektrischen Schwingkreis z.B. aus der Induktivität der Spule und der Kapazität des Kondensators: Um die Sinus-förmige Schwingung eines Oszillators zu beschreiben, werden noch weitere Begriffe verwendet, die jedoch aus den bisher vorgestellten Eigenschaften bestimmt werden können. So wird unter der Schwingungs- oder Periodendauer die Zeit verstanden, die das System für eine vollständige Schwingung benötigt. Da sie als Informationen die Anzahl an Schwingungen und eine Zeit enthält, muss sie eng mit der Eigenfrequenz zusammenhängen: Überblick über die wichtigsten Begriffe zur Beschreibung einer Schwingung (Quelle: leifiphysik.de) Ungedämpfter harmonischer Oszillator Immer dann, wenn ein schwingfähiges System mit der obigen Gleichung beschrieben werden kann, handelt es sich um einen ungedämpften harmonischen Oszillator. Denn an der Gleichung wird klar, dass die Amplitude, also die maximale Auslenkung, auch bei der 20ten, 100ten, 10.000ten Schwingung wieder erreicht wird. Da sich die Systemeigenschaften ohne äußere Einflüsse ebenfalls nicht ändern, ändert sich das Verhalten dieses Oszillators nie und er schwingt stets gleich um die Ruhelage. Nach der mathematischen Herleitung ist schon fast alles zum ungedämpften harmonischen Oszillator gesagt, denn: Reale Beispiele und Anwendungen gibt es nicht! In der Realität gibt es immer einen Widerstand, der den Oszillator ausbremst und die Auslenkung langsam kleiner werden lässt. Aus diesem Grund ist der ungedämpfte Oszillator nur zum Kennenlernen und Verstehen des Verhaltens sowie als Näherungslösung geeignet. Gedämpfter harmonischer Oszillator Beim gedämpften harmonischen Oszillator existiert eine bremsende Kraft. Das ändert die mathematische Beschreibung in der Differentialgleichung. Die Bewegungsgleichung des Federpendels (und äquivalent die Gleichungen anderer Oszillatoren) wird um einen Term ergänzt, der im einfachen Fall der Reibung in der Luft, also einem Reibungskoeffizienten und proportional zur Geschwindigkeit ist: Oft wird zu zusammengefasst, um das rechnen zu vereinfachen. Die zu lösende Differentialgleichung wird auf die gleiche Art gelöst, wird aber natürlich komplizierter. Als Lösungsansätze empfehlen sich wieder Sinus-, Cosinus- oder e-Funktion. Mit dem Ansatz ergeben sich Lösungen, wenn die folgende Gleichung erfüllt: Je nachdem, wie das Verhältnis von Dämpfung und Eigenfrequenz sind, werden verschiedene Fälle unterschieden: Schwach gedämpfter Fall Der schwach gedämpfte Fall tritt auf, wenn gilt. Somit ist die Zahl unter der Wurzel bei der Berechnung von negativ und die Wurzel selbst imaginär. Mit der verkürzten Schreibweise ergibt sich die allgemeine Lösung zu was im Vergleich mit der ungedämpften Schwingung eine Schwingung mit kleinerer Frequenz (da ) und einer mit der Zeit exponentiell abnehmenden Amplitude darstellt. Eine andere Darstellungsweise ist folgende: Hier ist die exponentielle Abnahme der Amplitude besser ersichtlich, allerdings ist dazu das Verständnis des Zusammenfassens zweier auftretender periodischer Funktionen mittels Phasenverschiebung nötig. Die Schwingung schwingt in diesem Fall weiterhin um die Ruhelage, allerdings wird, wie bereits gesagt, die maximale Auslenkung mit jeder Schwingung geringer. Die Einhüllende zu einer gedämpften Schwingung (Quelle: Wikipedia/Harmonischer-Oszillator) Aperiodischer Grenzfall In Anwendungen ist es oft gewollt, eine Schwingung schnellstmöglich zu stoppen und zur Ruhelage zurückzukehren. Wenn eine Dämpfung keine komplette Fixierung in einem Zustand beinhaltet, ist eine überstarke Dämpfung dabei aber nicht zielführend, wie intuitiv oft angenommen wird. Um die Schwingung schnellstmöglich zu stoppen, ist die Bedingung nötig. Somit verschwindet in der Berechnung von die Wurzel und es bleibt nur eine Lösung übrig, was für die Schwingung zu führt, wobei und aus den Anfangsbedingungen, also Auslenkung und Startgeschwindigkeit, bestimmt werden. Beim aperiodischen Grenzfall, manchmal auch mit kritischer Dämpfung bezeichnet, findet keine Schwingung mehr statt. Je nach Anfangsbedingungen kann die Ruhelage einmal durchlaufen werden, spätestens dann wird sich dieser allerdings exponentiell angenährt. Darstellung des aperiodischen Grenzfalls mit unterschiedlichen Startgeschwindigkeiten (Quelle: https://de.wikipedia.org/wiki/Aperiodischer_Grenzfall) Starke Dämpfung Zwar führt eine starke Dämpfung auch dazu, dass keine Schwingung stattfindet, allerdings braucht das System lange, um wieder in die Ruhelage zurückzukehren. Deshalb wird dieser Fall auch als Kriechfall bezeichnet. Mathematisch wird er mit der Bedingung beschrieben, was zu zwei reellen, negativen Ergebnissen für führt. Die Bewegungsgleichung ergibt damit vereinfacht wobei und wieder aus den Anfangsbedingungen bestimmt werden. Vergleich des Kriechfalls mit dem aperiodischen Grenzfall Um zu zeigen, dass die vorgestellten Fälle alle von Nutzen sind, werden nun einige Anwendungsbeispiele vorgestellt. So ist der Fall der schwachen Dämpfung für Saiteninstrumente wichtig, da die einzelnen Saiten sich nicht sofort wieder in die Ruhelage begeben dürfen, sondern schwingen müssen, um überhaupt einen Ton erzeugen zu können. Der aperiodische Grenzfall ist beispielsweise für Autofahrer sehr wichtig, da die Stoßdämpfer nach diesem Prinzip funktionieren. Das hat den einfachen Grund, dass das Auto nach der Beanspruchung der Stoßdämpfer schnell wieder in die ideale Straßenlage kommen soll. Würde eine schwache Dämpfung verwendet werden, so würde das Auto noch für längere Zeit auf und ab wippen und die Fahrt eher einer Bootstour ähneln, was wenig komfortabel ist. Bei starker Dämpfung könnte es vorkommen, dass die nächste Beanspruchung nicht ausreichend abgefedert werden kann, da die Feder noch zu stark eingefedert ist. Aber auch die starke Dämpfung hat ihre Anwendungsgebiete. So sind beispielsweise viele Türen in öffentlichen Gebäuden stark gedämpft. Das sorgt für ein langsames und leises Schließen der Türen und verhindert, dass die Tür einer unaufmerksamen Person mit zu viel Geschwindigkeit entgegenfällt und diese eventuell verletzt. Getriebener Oszillator Bisher wurde der Oszillator ohne äußere Kräfte betrachtet. Liegt solch eine Kraft vor, muss diese in die Bewegungsgleichung integriert werden: Interessant ist dieser Fall besonders dann, wenn es sich bei der Kraft um eine periodische Kraft handelt, also . Dieser Fall ist sehr gut mit einem schaukelndem Kind zu vergleichen, welches immer zum gleichen Zeitpunkt mit der gleichen Kraft angeschubst wird. Durch diese von außen aufgebrachte Kraft wird aus der homogenen eine inhomogene Differentialgleichung. Um diese zu lösen muss die Lösung der homogenen Differentialgleichung, welche in dem Abschnitt zu dem gedämpften harmonische Oszillator zu finden ist, mit der sogenannten partikulären Lösung addiert werden. Die partikuläre Lösung lässt sich mit dem Ansatz des Typs der rechten Seite lösen und ergibt sich zu dabei handelt es sich bei um eine Phasenverschiebung zwischen der antreibenden Kraft und dem um den Ruhepunkt schwingenden Massepunkt. Von besonderem Interesse ist dabei das Verhalten des gesamten Systems für verschiedene Frequenzen der treibenden Kraft. Dabei werden drei verschiedene Fälle betrachtet. Niederfrequenter Bereich: Für den niederfrequenten Bereich gilt, dass die Frequenz der antreibenden Kraft sehr viel kleiner ist als die Eigenfrequenz des Oszillators. Aufgrund dessen ist die Amplitude der anregenden Kraft in etwa so groß wie die Amplitude des Massepunktes. Das Amplitudenverhältnis beträgt also ungefähr 1. Der Phasenunterschied zwischen den beiden Schwingungen ist in etwa 0. Resonanzfall: Von Resonanz wird gesprochen, wenn die Frequenz der antreibenden Kraft der Eigenfrequenz des Oszillators gleicht. Infolgedessen erhöht sich die Amplitude des Oszillators gegenüber der Amplitude des Erregers, sodass sich ein Amplitudenverhätnis ergibt, welches größer 1 ist. Die Phasendifferenz beträgt , wobei der Erreger dem Massepunkt vorauseilt. Hochfrequenter Bereich: Sollte die Frequenz der antreibenden Kraft viel größer sein als die Eigenfrequenz des Oszillators so fällt auch die Amplitude des Oszillators wesentlich kleiner aus. Es ergibt sich ein Amplitudenverhätnis, welches gegen 0 geht. Auch in diesem Fall gibt es eine Phasendifferenz , die Schwingungen laufen also fast gegenphasig ab. Auch diese Eigenschaften der Oszillatoren sind im Alltag von Bedeutung. So ist es für Autos wichtig, dass die Eigenfrequenz einzelner Teilsysteme oder des Gesamtsystems nicht im Bereich der Motorendrehzahl liegen um eine komfortable und sichere Fahrt zu gewährleisten. Insbesondere der Resonanzfall kann gefährliche Auswirkungen haben, da in diesem Fall das System immer weiter aufgeschaukelt wird und die Amplitude des Oszillators sich immer weiter erhöht. Falls das System nicht gedämpft ist, kann die Amplitude bis ins Unedliche steigen, was zur Zerstörung des Systems führt. Eine starke Dämpfung kann die maximale Amplitude zwar begrenzen, aber auch in diesem Fall komm es für den Resonanzfall zu einer starken Belastung des Systems, was in den meisten Fällen vermieden werden sollte. Ein gutes Beispiel für eine Resonanzkatastrophe ist die Tacoma Narrows Bridge, welche durch starke Winde in Schwingung versetzt wurde, welche sich dann selbsterregt immer weiter verstärkte, was den Einbruch der Brücke zur Folge hatte. Demgegenüber bleibt aber zu sagen, dass ohne Resonanz auch viele alltägliche Dinge nicht möglich wären, es also auch einen positiven Aspekt gibt. So würde Schaukeln nicht halb so viel Spaß machen, wenn es nicht möglich wäre seine eigene Schwingung zu verstärken und somit immer höher Schaukeln zu können. Ein weiteres typisches Beispiel für den getriebenen harmonischen Oszillator stellt der elektrische Schwingkreis da, der bei der drahtlosen Energieübertragung genutzt wird. Das System wird dabei ständig neu mit Energie aufgeladen, die es dann mittels sogenannter resonant induktiver Kopplung an einen Empfänger weitergeben kann, der so kabellos geladen wird. Weiterführendes Viele weiterführende Beispiele, die sich des Oszillators mit schwacher Dämpfung bedienen, sind in der Akustik respektive Musik zu finden, wie die Schwingung einer (Gitarren-)Seite, die nach einmaligem Anschlag möglichst lange klingen soll. Doch hier handelt es sich nicht um einen einfachen harmonischen Oszillator, sondern um ein komplexeres System. Literatur und weiterführende Informationen Viele Experimente und Material zum Fadenpendel für die Schule findet man z.B. auf leifiphysik.de Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976. Juan R. Sanmartin: O Botafumeiro: Parametric pumping in the Middle Ages Anwendung auf das Schwenken des berühmten Weihrauchfasses in der Kathedrale von Santiago de Compostela, 1984. Podcasts Helen: Schaukeln, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 114, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
4/23/2021 • 30 minutes, 51 seconds
Verkehrsflusssimulation
Im Rahmen der Vorlesung Mathematical Modelling and Simulation haben Jan Dietrich und Alexander Grötz ein Projekt bearbeitet, wo sie Verkehr mit Hilfe der Software VISSIM simulieren. Die Idee kam ihnen durch ein Praktikum Firma ptvgroup an der Verkehrsmodellierung, das Jan Dietrich kürzlich dort absovliert hat. Im Gespräch geht es um verschiedene Formen der Modellierung von Verkehrsflüssen und um konkrete Umsetzung des Modells in VISSIM. Der ersten Teil des Podcasts ist dabei der theorietischen Ausgestaltung von Verkehrsmodellen gewidmet. Im Wesentlichen unterschiedet man zwischen zwei Gruppen von Verkehrsmodellen. Während die so genannten Verkehrsflussmodelle, die die zeitliche Veränderung des Verkehrsaufkommens untersuchen, werden Verkehrsnachfragemodelle dazu verwendet, um Aussagen über das Verkehrsaufkommen in einem Jahr oder die Aufteilung dieser Nachfrage auf die verschiedenen Transportmittel zu treffen. Weiter werden diese beiden Gruppen nochmals in drei Kategorien uterteilt; genauer in Makroskopische Modelle, Mesoskopische Modelle und Mikroskopische Modelle.Eine letzte Unterscheidungsmöglichkeit zwischen einzelnen (Verkehrs-)Modellen ist der Zufall: Wenn jede Modellvariable in dem Sinn "vorhersehbar", dass die quantitative Ausprägung der einzelnen Variablen für alle betrachteten Zeiten exakt berechenbar sind und über deren Ausprägung keine Unsicherheit herrscht, sprich man von deterministischen Modellen. Oft ist es jedoch so, dass man bestimmte Ereignisse oder auch Handlungen der einzelnen Verkehrsteilnehmer nicht exakt vorhersehen kann. Dadurch erhält man aber gewisse Unsicherheiten bei der Berechnung zukünftiger Zustände, weil man die genaue Ausprägung der zufälligen Größen erst ex post kennt. Man wird im Allgemeinen also nie den exakten Zustand eines Modells mit solchen zufälligen Einflussgrößen bestimmen können. Solche Modelle, die Zufallsvariablen beinhalten, nennt man stochastisch. Im zweiten Teil des Podcasts, geht es um die praktische Umsetzung von Verkehrsmodellen mit Hilfe der Software PTV VISSIM. In VISSIM werden zahlreiche Aspekte des Straßenverkehrs sehr realitätsnah und graphisch ansprechend abgebildet. Neben der reinen Simulation der Bewegung von Fahrzeugen wird dabei auch auf viele Details, die das Verhalten der Fahrzeuge in der Realität beeinßussen, Rücksicht genommen. Unter anderem werden verschiedene Fahrzeugklassen und deren unterschiedliches Verhalten beim Bremsvorgang berücksichtigt, aber auch Dinge wie Vorfahrtsregelungen und Spurwechsel können modelliert werden. Mit der Erweiterung PTV Viswalk kann sogar auf das Verhalten einzelner Fußgänger Rücksicht genommen werden. Die Modellierung der Bewegung der einzelnen Verkehrsteilnehmer in PTV Vissim basiert dabei grundlegend auf dem Fahrzeugfolgemodell von Rainer Wiedemann, einem s.g. mikroskopischen, stochastischen Verkehrsfolgemodell, in welches auch psychologische Aspekte der Verkehrsmodellierung mit einfließen. Um auch den Zuhörern des Podcasts, einen ersten Eindruck von VISSIM vermitteln zu können, hat Jan sich bereit erklärt, die grundlgenden Funktionen von VISSIM in einem kurzen Einführungsvideo vorzustellen. Weitere Modellierungsmöglichkeiten mit VISSIM findet man z.B in der zum Podcas gehörenden Ausarbeitung, die neben der Einführung in VISSIM auch einen Überblick über das Verkhsmodellierung im Allgemeinen gibt. Wie man im Einführungsvideo gut sehen kann, muss man für eine möglichst realitätsnahe Modellierung des Straßenverkehrs einige Parameter einstellen. Sinnvolle Kenngrößen für in die Simulation eingehenden Daten (wie z.B. das Verkehrsaufkommen in den einzelnen Fahrbahnen, Beschleunigung und Bremsstärke für einzelne Fahrzeugklassen, die Schaltung der Ampeln, etc.) müssen vor der Eingabe in Vissim zuerst aber noch ermittelt werden. Oft, wie beispielsweise beim erwarteten Verkehrsaufkommen, erfordert dies wiederum eigene Modelle. Einen guten Überblick über das Thema Verkehrsplanung, insbesondere im Zusammenhang mit dem Thema der Verkehrsnachfrage, bietet beispielsweise das Paper von Firedrich. Literatur und weiterführende Informationen U. Clausen, C. Geiger: Verkehrs- und Transportlogistik VDI-Buch, 2013. ISBN 978-3-540-34299-1 M. Treiber, A. Kesting: Verkehrsdynamik Springer, 2010. ISBN 978-3-642-32459-8 Friedrich, Markus. \"Wie viele? Wohin? Womit? Was können uns Verkehrsnachfragemodelle wirklich sagen.Tagungsbericht Heureka 11 (2011). Fellendorf, Martin. VISSIM: Ein Instrument zur Beurteilung verkehrsabhängiger Steuerungen. In: Tagungsband zum Kolloquium "Verkehrsabhängige Steuerung am Knotenpunkt", Forschungsgesellschaft für Strassen- und Verkehrswesen, Köln, (1994) Wiedemann, Rainer. Simulation des Verkehrsflusses. Schriftenreihe des Instituts für Verkehrswesen, Heft 8, Universität (TH) Karlsruhe (seit 2009 KIT - Karlsruher Institut für Technologie), (1974) PTV Youtube-Kanal Podcasts P. Vortisch, G. Thäter: Verkehrsmodellierung I, Gespräch im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. U. Leyn, G. Thäter: Verkehrswesen, Gespräch im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Nökel, G. Thäter: ÖPNV, Gespräch im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. T. Kretz, G. Thäter: Fußgängermodelle, Gespräch im Modellansatz Podcast, Folge 90, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Göttlich, G. Thäter: Verkehrsoptimierung, Gespräch im Modellansatz Podcast, Folge 209, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
10/2/2020 • 39 minutes
Grundschule am Tablet
Im Mai 2020 sprach Gudrun mit Verena Knoblauch. Sie ist Lehrerin und Medienpädagogin. Sie arbeitet in einer Nürnberger Grundschule und hat dort Tabletklassen im dritten und vierten Schuljahr unterrichtet. Gudrun und Verena sind sich auf Twitter begegnet. Dort gibt es eine sehr aktive und bunte Gruppe von Lehrpersonen, die sich unter dem Hashtag #twitterlehrerzimmer austauschen. Es gibt auch schon ein anderes Podcastgespräch "aus dem twitterlehrerzimmer" mit Jan-Martin Klinge zu den von ihm verwendeten Lerntheken. Unter dem Eindruck der Corona-Einschränkungen wollte Gudrun gern aus erster Hand erfahren, wie Verena den Unterricht aus der Ferne für die jüngsten Schülerinnen und Schüler gestaltet und erlebt. Verena berichtete, dass es für die Kleinen ohne Präsenzunterricht schwierig ist, da für sie neben den Inhalten des Unterrichts der Kontakt zu Lehrern und Mitschülern mindestens ebenso wichtig ist. Die Gemeinschaft in der Klasse lässt sich aber im Fernunterricht nicht gut herstellen. Verena steht im Zwiespalt wie alle Lehrpersonen: Verteilt man Arbeitsblätter, dann ist den Kindern und deren Eltern recht klar, was genau erledigt werden soll. Aber das ist nach kurzer Zeit schon langweilig. Auch für die Lehrpersonen. Deshalb werden Kolleginnnen und Kollegen auch sehr kreativ bei der Erstellung von freieren Aufgaben. Leider sind dann aber oft die Eltern überfordert und ohne Eltern geht Fernunterricht in der Grundschule nicht. In ihrer Tätigkeit als Grundschullehrerin - auch ohne Corona - gibt es eigentlich keinen Alltag und keine Routine. Verena sieht eine wichtige Rolle darin, zu unterichten wie man sich bei Fragen zu helfen weiß, z.B. mit der Kindersuchmaschine fragFinn. Sie stellt sich nicht als allwissende Lehrperson mit Wissenshoheit vor die Klasse, denn es ist auch für die Kinder wichtig zu lernen: Keiner weiß alles. Und es ist eine wichtige Kompetenz, nicht nur die Eltern oder andere Erwachsene fragen zu müssen, sondern selbst zu suchen und zu finden und mit den Ergebnissen souverän umgehen zu können. Was ist vernünftig, was stimmt, was ist ganz bestimmt Quatsch? Seit einigen Jahren schon setzt Verena in ihren 3. und 4. Klassen auf die Unterstützung durch Tablets für den Unterricht. Die Anregung hierzu kam von außen in Form einer Spende von zwei Klassensätzen Tablets für die Grundschule. Nachdem sie spontan zugesagt hatte, dass sie diese gern für ihren Unterricht einsetzen möchte, musste sie sich zunächst einmal damit beschäftigen, wie man das verwaltet, versichert, aufbewahrt und pflegt. Und mehr darüber lernen, was man nun damit anfangen kann. Hierzu hilft der Austausch mit Kolleginnen aus nah und fern. Verena hat sich aber sogar entschieden dafür noch Medienpädagogik zu studieren. Als erstes fallen einem im Zusammenhang mit Tablets im Unterricht natürlich Übungsapps ein, die es für viele Fächer gibt, wo die Kinder auf sie zugeschnittene Aufgaben finden und gleich Rückmeldung bekommen, was sie richtig gemacht haben. Verena stellte jedoch fest, dass man mit Tablets viel viel mehr machen kann. In Film und Ton und mit Bildern können die Kinder ihre Ideen ausdrücken und sogar erklären, warum sie Sachen so machen und damit zeigen, was sie wie verstanden haben. In einem Projekt haben die Kinder Informationen zu bestimmten Ländern als Reportagen präsentiert, die vor einem Greenscreen aufgezeichnet wurden. Dann konnte ein Bild des Landes als Hintergrund eingefügt werden und schon wirkte es wie ein Bericht vor Ort. Oder eine Lesekiste wird gebastelt, wo eine Szene aus einem Buch nachgebaut wird. "Darin" kann man dann über das Buch berichten, nachdem ein Foto, das in der Kiste aufgenommen wird hinter den Filmbericht gelegt wird. Von dort ist es nur ein kleiner Schritt, zu verstehen wie leicht es ist, nur den Anschein von Wahrheit zu erwecken. Verena ist dann noch etwas weiter gegangen und hat die Schülerinnen und Schüler Fake News produzieren lassen, die professionell aussehen. Wenn man als Drittklässler mit drei Clicks Bilder fälschen kann, dann schaut man sich anderswo Informationen automatisch viel kritischer an. Inzwischen arbeitet Verena in der Fortbildung für Kollegen. Zur Zeit auschließlich in der Form von Webinaren. So kann sie Ihre Erfahrung mit den Möglichkeiten der Tablets im Unterricht recht niederschwellig an Kolleginnen und Kollegen weiter geben. Außerdem ist es interessant, auch Lehrerin für Erwachsene zu sein. Und es hilft ihr davon weg zu kommen als Einzelkämpferin zu arbeiten, wie es in der Schulzeit und im Examen an der Uni gelernt wird. Statt dessen ist es für sie und alle Lehrpersonen ein großer Gewinn, sich zu öffnen und z.B. bei Twitter oder in Fortbildungen neues lernen und von den Ideen der anderen zu profitieren. Literatur und weiterführende Informationen Der Zauberer Korinthe - ein Medienprojekt Stop Motion Film nach einem Gedicht von James Krüss (mit zwei selbst gedichteten Strophen) Blog von V. Knoblauch B. Vorsamer: Besser selber machen SZ vom 26.07.2019 V. Knoblauch: Tablets in der Grundschule. Konzepte und Beispiele für digitales Lernen AOL-Verlag, 2020, ISBN: 978-3-403-10596-1. V. Knoblauch: Escape Rooms für die Grundschule - Klasse 3/4. Auer Verlag, 2020, ISBN: 978-3-403-08435-8. Exciting Edu Talk 2018 YouTube 2019. Plattform Bildung und Digitalität V. Knoblauch, S. Maurer und W. Tiedmann: Grundschule in Zeiten von Homeschooling Vortrag für Pacemaker Initiative auf Vimeo, April 2020. Sketch Notes, Webinar von Verena Wibke Tiedmann, 28.04.2020 Podcasts V. Knoblauch: Die pädagogische Ausbrecherin. Der Durchfechter Podcast Folge 26, April 2020. B. Lutz-Westphal, G. Thäter: Forschendes Lernen, Gespräch im Modellansatz Podcast, Folge 181, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. J.-M. Klinge, G. Thäter: Lerntheken, Gespräch im Modellansatz Podcast, Folge 178, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
8/20/2020 • 38 minutes, 41 seconds
Pi ist genau 3
Gudrun spricht mit Petra Schwer und Thomas Kahle. Alle drei sind während des Gesprächs jeweils in ihrem Wohnzimmer und treffen sich auf einer Videoplattform. Deshalb ist es etwas schwieriger, stets nur nacheinander zu sprechen. Petra und Thomas sind an der Otto von Guericke Universität in Magdeburg Professorin bzw. Professor am Institut für Algebra und Geometrie. Der Anlass des Gespräches ist, dass die beiden kürzlich einen Mathepodcast gestartet haben, nämlich Pi ist genau drei. Zur Zeit des Gespräches, im April 2020, waren dort die ersten drei Episoden veröffentlicht mit den Themen Was ist Mathematik, Beweise, Offene Probleme. Im Podcast Pi ist genau drei ist jeweils eine der beiden Personen auf das Thema vorbereitet, die andere wird "überrascht". Als Publikum kann man auf diese Art und Weise die beiden beim Denken und Ideen entwickeln beobachten und sich zum mitdenken anregen lassen. Im Gespräch von Gudrun, Thomas und Petra geht es darum, wie man Mathematik im Podcastformat darstellen kann. Welche Erfahrungen und Wünsche wurden von ihnen gemacht? Inwieweit gehört Mut dazu, sich relativ ungeschützt beim Diskutieren und Ideen Entwickeln zu zeigen und welche Vorteile hat es, diesen Mut aufzubringen? Davon ausgehend reden Sie auch darüber, wie sich Aspekte des Nachfragens und des offenen Denk-Raumes auch in der Lehre realisieren lassen sollten. Weil sie selbst durch andere Podcasts inspiriert worden sind, es selbst zu versuchen, empfehlen sie auch ihre Lieblingspodcasts. weitere Informationen Der Titel des Podcasts spielt auf eine Szene der Serie Die Simpsons an. In dieser Episode (S12E16 „Bye Bye Nerdy“, dt: „Lisa knackt den Rowdy-Code“) verschafft sich Professor Frink durch die schockierende Aussage „Pi ist genau drei!“ die Aufmerksamkeit seiner Kollegen. Podcasts Pi ist genau drei - der irgendwas mit Mathe Podcast aus Magdeburg P. Schwer: Metrische Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Podcast-Empfehlungen von Thomas, Gudrun und Petra: Anekdotisch Evident Hotel Matze Was denkst Du denn Mein Freund der Baum Thomas hat den Modellansatz kennengelernt über die Folge: G. Thäter, E. Duarte: Algebraic Geometry, Gespräch im Modellansatz Podcast, Folge 171, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
5/9/2020 • 1 hour, 11 minutes, 55 seconds
Energie und KI
Gudrun sprach im März 2020 mit Nicole Ludwig. Sie ist eine Kollegin am KIT am Campus Nord und gehört dem Institut für Automation und angewandte Informatik an. Sie war Mitglied des DFG Graduiertenkollegs Energiezustandsdaten Informatikmethoden zur Analyse, Erfassung und Nutzung und ist dabei, ihre Promotion abzuschließen. Im Studium wurde sie von den Themen der Ökonometrie und Statistik eingefangen und von der Freude, aus empirischen Daten verlässliche Ergebnisse ableiten zu können. Sie hat schon in ihrer Bachelorarbeit Maschinelles Lernen für Prognosen benutzt. Deshalb war es sehr spannend für sie, diese Kenntnisse und ihre Freude am Thema in das Graduiertenkolleg zu Energiedaten und Informatik einzubringen. Als Gesellschaft müssen wir in naher Zukunft eine Energieproduktion ohne fossile Brennstoffe erreichen. Es ist jedoch nötig, beim Nutzen von erneuerbaren Energien im Vergleich zu konventioneller Energieerzeugung umzulernen, um einerseits für eine stabile Versorgung von Wirtschaft und Haushalten zu sorgen und andererseits dabei alle Lasten der nötigen Veränderungen fair zu verteilen. Es gibt zwei Möglichkeiten, die Energieproduktion zu optimieren. Zum einen können wir den Produktionszeitplan besser auf die Nachfrage abstimmen. Zum anderen können wir das Verbrauchsverhalten ändern, um eine optimale Versorgungsstrategie zu unterstützen. Traditionell kennt man Prognosen für die Energienachfrage in unterschiedlichen Zeithorizonten und macht diese zur Grundlage für Produktionspläne. Mit einer zunehmenden und sich ändernden Menge an Variablen, die das System beeinflussen, sind perfekte Vorhersagen jedoch sehr unrealistisch und wahrscheinlich nicht der richtige Ansatz für die Zukunft. Man muss sich hierzu nur vor Augen halten, dass die Energieernte sowohl bei Windkraft als auch für Solarstrom stark vom Wetter abhängen. Wenn auch die Wettervorhersage schon sehr viel besser geworden ist, so ist es doch noch nicht möglich, auf ihrer Grundlage hinreichend sichere Vorhersagen für die Energieerzeugung machen zu können. Andererseits gibt es heute auch bessere Möglichkeiten, die Energieabnahme zumindest im Prinzip von außen zu steuern. Das was früher als Nachtstrom die Abnahme von Stromspitzen mit niedrigen Preisen versüßte, kann heute ganz regional und sich täglich anpassend nicht nur in Betrieben sondern sogar im Haushalt steuern, wann beispielsweise die Waschmaschine läuft oder ein Warmwasserspeicher lädt. Bald kann auch die Flotte an E-Fahrzeugen mit ihren Akkumulatoren Energie zum passenden Zeitpunkt abnehmen und auch in Spitzenzeiten wieder abgeben. Die Gesetzgebung ist hier noch nicht so weit wie die technischen Möglichkeiten. Aber man muss sicher auch noch einmal gründlich darüber nachdenken, in welcher Art und Weise man Personen dazu zwingen will, Daten dafür zur Verfügung zu stellen und wie man sie anschließend vor dem Missbrauch dieses Wissens durch Unbefugte schützen kann. Schon heute ist die Energieversorgung viel verwundbarer durch Angriffe von Hackern als wir uns eingestehen wollen. Prinzipiell liegen aber - schon allein in Bezug auf Wetterdaten - aber auch in feingranularem Wissen über Energieverbrauch - sehr viele Daten vor, die man nutzen kann, um neuartige Prognosen zu erarbeiten. Man geht also über von rein Physik-basierten Modellen und Expertenwissen über zu neuronalen Netzen und Datamining. Diese arbeiten natürlich nicht sinnvoll ohne den Expertenblick, denn welche Fragen die vorliegenden Daten sinnvoll und recht sicher beantworten können, ist naiv geplant sicher nicht möglich. Nicole gefällt es gut, an der Schnittstelle sehr unterschiedlicher Wissensgebiete (Wirtschaft, Physik/Meteorologie, Ingenieurswissenschaft und Informatik) zu forschen. Literatur und weiterführende Informationen L. Barth e.a.: How much demand side flexibility do we need? - Analyzing where to exploit flexibility in industrial processes 9th ACM International Conference on Future Energy Systems (ACM e-Energy), 2018, Karlsruhe, Germany J.A. Gonzalez Ordiano e.a.: Concept and benchmark results for Big Data energy forecasting based on Apache Spark. Journal of Big Data 5, Article number: 11 (2018) R.R Appino e.a. : On the use of probabilistic forecasts in scheduling of renewable energy sources coupled to storages Applied Energy 210 (2018) L. Barth e.a.: A comprehensive modelling framework for demand side flexibility in smart grids Computer science - research and development 33,13-23 (2018) M. Lösch: Digitalisierte Stromnetze und Smart Meter in Deutschland, Ein Überblick, Vortrag auf der GPN17, 2017. B. Becker, F. Kern, M. Lösch, I. Mauser, H. Schmeck: Building Energy Management in the FZI House of Living Labs, In Proceedings of the D-A-CH Conference on Energy Informatics (pp. 95-112). Springer International Publishing, 2015. M. Lösch, D. Hufnagel, S. Steuer, T. Faßnacht, H. Schmeck: Demand Side Management in Smart Buildings by Intelligent Scheduling of Heat Pumps, In Proceedings of the IEEE International Conference on Intelligent Energy and Power Systems (IEPS), 2014. T. Fassnacht, M. Lösch, A. Wagner: Simulation Study of a Heuristic Predictive Optimization Scheme for Grid-reactive Heat Pump Operation, In Proceedings of the REHVA Annual Conference, 2015. Podcasts S. Coşkun, G. Thäter: Energy Markets, Gespräch im Modellansatz Podcast, Folge 190, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. C. Harvey, G. Thäter: Micro Grids, Gespräch im Modellansatz Podcast, Folge 186, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Z. Ahamed, G. Thäter: Electric Vehicles on the Grid, Gespräch im Modellansatz Podcast, Folge 183, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, B. Pousinho: Weather Generator, Gespräch im Modellansatz Podcast, Folge 148, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lösch, S. Ritterbusch: Smart Meter Gateway Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. J. Müller-Quade, A. Rupp, B. Löwe, K. Bao: Kryptographie und Privatssphäre im Stromnetz, Feature von Jan Rähm im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, Folge 6, 2017. S. Seier, T. Alexandrin: Mieterstrom-Krimi, Abgrund oder Cliffhanger? Episode 16 im Blindstrom Podcast, 2017. M. Dalheimer, P. Hecko: Der Strom, Folge 5 im Pietcast, 2014.
3/26/2020 • 39 minutes, 4 seconds
Fernstudium Maschinenbau
Gudrun sprach Mitte März 2020 mit Franziska Blendin. Das Gespräch fand statt, während beide sich in ihrem jeweiligen Wohnzimmern aufhielten: Gudrun in Karlsruhe und Franziska in Frankfurt (Main). Seit drei Semestern absolviert Franziska ein Online Studium an der Fachhochschule Frankfurt und strebt einen Bachelor in Maschinenbau an. Gudrun wollte gern von ihr erfahren, wieso sie sich für diesen Weg entschieden hat und was ihre Erfahrungen mit dieser besonderen Art des Studiums sind. Franziska hat nicht im Gymnasium Abitur gemacht, sondern ein Fachabitur im Rahmen einer Ausblidung zur Sozialassistentin im Fachbereich Pflege. Während ihrer Tätigkeit als Assistentin einer Rollstuhlfahrerin kam die Idee auf, dass sich Franziska bei dem Rollstuhlhersteller schlau machen könnte, um auch kleine Reparaturen oder Anpassungen an dem Gerät übernehmen zu können. So kam es zu einem Praktikum in dem mittelständischen Unternehmen, das den Rollstuhl herstellt. In der Zeit wuchs ihr die Flex ans Herz und es wurde die Idee geboren, so einen Beruf zu erlernen. Sie hat als Zerspanerin und Schlosserin gearbeitet, wollte allerdings auf jedenfall noch eine Fortbildung machen. Im Prinzip hätten zunächst die Möglichkeiten, einen Meister zu machen oder eine Techniker-Ausbildung neben dem Beruf zu absolvieren nahe gelegen. Aber die Erfahrung zeigte Franziska, dass es als Frau ohnehin nicht so leicht ist, für diese Stellen in die engere Wahl zu kommen und dass diese handwerkstypischen Abschlüsse häufig nicht entsprechend gewürdigt werden. Vom Lernaufwand neben der Erwerbsarbeit sind diese Wege aber ähnlich. So hat sich Franziska für ein online Studium entschieden. Der große Vorteil ist, dass es zeitlich flexibler ist und deshalb leichter mit einer Berufstätigkeit passend gemacht werden kann. Bei 100% Job schafft man aber nicht so viel, wie der ideale Plan bis zum Bachelor vorsieht, sondern eher so 3-4 Fächer (das sind 15-20 Leistungspunkte statt der im Plan avisierten 30 Punkte pro Semester - jeder Leistungspunkt entspricht dabei etwa 30 Zeitstunden Aufwand). Hinzu kommt, dass eigentlich alle, deren Abitur schon eine Weile zurück liegt und die vielleicht ein Schmalspurabi wie Franziska haben, Probleme mit Mathe und anderen Naturwissenschaften haben. Franziska ist z.B. sehr froh, dass sie nun nach drei Semestern endlich Mathe 1 bestanden hat (Mathe 2 fiel ihr dann nicht so schwer). Für jedes Modul sind drei Anwesenheitszeiten pro Semester geplant, die ausnahmsweise auch als Webkonferenz durchgeführt werden, in der die Studierenden Fragen stellen können. Den Stoff muss man sich vorher selbst z.B. mit Hilfe eines Lernprogramms oder dem Skript erarbeiten. Wöchentlich gibt es 60-90 min Vorlesung als Webkonferenz - das ist aber mehr eine Zusammenfassung des Stoffs und reicht nicht, um den Stoff zu verstehen. Außerdem müssen noch zwei Hausarbeiten eingesendet werden, um zur Prüfung zugelassen zu werden. Franziska freut sich darauf, bald Anwendungen der Mathematik im Fach Technische Schwingungen und Regelungstechnik zu sehen. Und auch die Module Technische Mechanik 1,2 und 3 waren schon viel Mathematik, haben aber Spaß gemacht. Sie hat die drei Module sofort bestanden obwohl das als schwieriges Fach gilt. In der Thermodynamik hilft ihr auch die Erfahrung aus der Berufspraxis sehr. Franziskas Vater war Mathelehrer und ist eigentlich im Ruhestand. Allerdings ist er inzwischen als Tutor für Mathe 1 an der Hochschule in Frankfurt tätig und als Team haben er und Franziska nun die Prüfung in Mathe 1 zu den Akten gelegt. Gudrun und Franziska haben sich im November 2017 beim Podäppler Workshop in Frankfurt kennengelernt. Gudrun kannte zu dem Zeitpunkt Tine Nowak aus Frankfurt aus dem Netzwerk der Wissenschaftspodcaster und Tine hatte Gudrun schon mehrfach nach Frankfurt zum Podcaster Stammtisch eingeladen bis es endlich für den Workshop geklappt hat. Franziska macht mehrere Podcasts und zwar über Fußball, Kinderbücher und Zerspanungsmaschinen. Außerdem malt sie Mathecomics - vor allem in heißen Lernphasen. Und weil das noch nicht genug ist, hat sie eine Fußballfibel über den FSV Frankfurt geschrieben, die gerade erschienen ist. Die wegen der Corona-Quarantäne ausgefallene Lesereise holt sie gerade per Youtube Livestreams nach. Literatur und weiterführende Informationen Veranstaltung zum Erscheinen der Fußballfibel F. Blendin: Fußballfibel FSV Frankfurt Redtenbacher als Mathematisierer des Maschinenbaus MINT-Kolleg Baden-Württemberg Podcasts von Franziska Hangcasting - Neues aus Bernem FSV Frankfurt Fan Podcast von Jörg und Franzi. Kinderbücher G4 Pocast über CNC-Maschinen (Thema Zerspanung, zuletzt mit Sonderfolgen zum Lernen im Studium) Von Hamstern, Monstern und Suppenkaspern - ein Kinder- und Jugendliteratur Podcast Podcasts zum Thema Y. Cai, S. Dhanrajani, G. Thäter: Mechanical Engineering, Gespräch im Modellansatz Podcast, Folge 176, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, J. Rollin: Advanced Mathematics, Conversation in the Modellansatz Podcast, Episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. F. Hettlich, G. Thäter: Höhere Mathematik, Gespräch im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
3/19/2020 • 1 hour, 2 minutes, 30 seconds
Machine Learning - Maschinelles Lernen
Gudrun spricht mit Sebastian Lerch vom Institut für Stochastik in der KIT-Fakultät für Mathematik. Vor einiger Zeit - Anfang 2015 - hatten die beiden schon darüber gesprochen, wie extreme Wetterereignisse stochastisch modelliert werden können. Diesmal geht es um eine Lehrveranstaltung, die Sebastian extra konzipiert hat, um für Promovierende aller Fachrichtungen am KIT eine Einführung in Machine Learning zu ermöglichen. Der Rahmen hierfür ist die Graduiertenschule MathSEED, die ein Teil des im Oktober 2018 gegründeten KIT-Zentrums MathSEE ist. Es gab schon lange (und vielleicht immer) Angebote am KIT, die insbesondere Ingenieure an moderne Mathematik heranführten, weil sie deren Methoden schon in der Masterphase oder spätestens während der Promotion brauchten, aber nicht durch die klassischen Inhalten der Höheren Mathematik abgedeckt werden. All das wird nun gebündelt und ergänzt unter dem Dach von MathSEED. Außerdem funktioniert das nun in beide Richtungen: Mathematiker:innen, werden ebenso zu einführenden Angeboten der anderen beteiligten Fakultäten eingeladen. Das Thema Maschinelles Lernen und Künstliche Intelligenz war ganz oben auf der Wunschliste für neu zu schaffende Angebote. Im Februar 2020 hat Sebastian diese Vorlesung erstmalig konzipiert und gehalten - die Übungen wurden von Eva-Maria Walz betreut. Die Veranstaltung wird im Herbst 2020 wieder angeboten. Es ist nicht ganz einfach, die unterschiedlichen Begriffe, die für Künstliche Intelligenz (kurz: KI) benutzt werden gegeneinander abzutrennen, zumal die Sprechweisen in unterschiedlichen Kontexten unterschiedlich sind. Hinzu tritt, dass mit der Verfügbarkeit großer Datenmengen und der häufigen Nutzung von KI und Big Data gemeinsam auch hier vieles vermischt wird. Sebastian defininiert Maschinelles Lernen als echte Teilmenge von KI und denkt dabei auch daran, dass z.B. symbolisches Rechnen KI ist. Ebenso geben schon lange sogenannte Expertensysteme Hilfestellung für Entscheidungen. Hier geben Regeln ein Programm vor, das Daten-Input zu einem Output verwandelt. Heute denken wir bei KI eher daran, dass z.B. der Computer lernt wie ein Bild eines Autos aussieht, ohne dass dafür klare Regeln vorgegeben werden. Dies ist eher vergleichbar damit, wie Kinder lernen. Die modernste Variante ist sogenanntes Deep Learning auf der Basis von Neuronalen Netzen. Die Abgrenzung zu statistischen Verfahren ist mitunter nicht so klar. Das Neuronale Netz wird dabei eine Black Box, was wissenschaftlich arbeitende Menschen nicht ganz befriedigt. Aber mit ihrer Hilfe werden komplexere Probleme lösbar. Forschung muss versuchen, die Entscheidungen der Black Box nachvollziehbar zu machen und entscheiden, wann die Qualität ausreicht. Dazu muss man sich überlegen: Wie misst man Fehler? In der Bildverarbeitung kann es genügen, z.B. falsch erkannte Autos zu zählen. In der Wettervorhersage lässt sich im Nachhinein feststellen, welche Fehler in der Vorhersage gemacht wurden. Es wird unterschiedliche Fehlertoleranzen geben für Erkennung von Fußgängern für selbst fahrende Autos und für die Genauigkeit von Wettervorhersage. Ein Beispiel in der Übung war die Temperaturvorhersage anhand von vorliegenden Daten. Die Vorhersage beruht ja auf physikalischen Modelle in denen die Entwicklung von Temperatur, Luftdruck und Windgeschwindigkeit durch Gleichungssysteme nachgebildet wird. Aber diese Modelle können nicht fehlerfrei berechnet werden und sind auch recht stark vereinfacht. Diese Fehler werden mit Hilfe von KI analysiert und die Ergebnisse für die Verbesserung der Vorhersage benutzt. Ein populäres Verfahren sind Random Forests oder Entscheidungsbäume. Hier werden komplexe Fragen stufenweise zerlegt und in den Stufen einfache Ja- oder Nein-Fragen beantwortet. Dies wird z.B. angewandt in der Entscheidung ob und wo eine Warnung vor einer Gewitterzelle erfolgen sollte. Sehr bekannt und im praktischen Einsatz erprobt (beispielsweise in der Bildverarbeitung und in der Übersetzung zwischen gebräuchlichen Sprachen) sind Neuronale Netze. In mehrern Schichten sind hier sogenannte Neuronen angeordnet. Man kann sich diese wie Knoten in einem Netz vorstellen, in dem Daten von Knoten zu Knoten transportiert werden. In den Knoten werden die ankommenden Daten gewichtet aufaddiert und eine vorher festgelegte Aktivierungsfunktion entscheidet, was an die nächsten Knoten oder die nächste Schicht von Neuronen weitergegeben wird. Die einzelnen Rechenoperationen sind hier also ganz elementar, aber das Zusammenwirken ist schwer zu analysieren. Bei vielen Schichten spricht man von Deep Learning. Das ist momentan noch in den Kinderschuhen, aber es kann weit reichende Konsequenzen haben. In jedem Fall sollte man Menschen im Entscheidungsprozess beteiligen. Die konkrete Umsetzung hat Sebastian als Vorlesung und Übung zu gleichen Teilen gewählt. Er hat einen Schwerpunkt auf einen Überblick zu methodischen Aspekten gelegt, die die Teilnehmenden dazu befähigt, später selbst weiter zu lernen. Es ging also unter anderem darum, wie man Trainingsdaten auswählt, wie Qualitätssicherung funktioniert, wie populäre Modelle funktionieren und wie man einschätzt, dass die Anpassung an Daten nicht zu stark erfolgt. In der Übung fand großen Anklang, dass ein Vorhersagewettbewerb der entwickelten Modelle durch Kaggle competions online live möglich war. Literatur und weiterführende Informationen Forschungsergebnisse mit Hilfe von Maschinen Lernen, an denen Sebastian Lerch beteiligt ist: M.N. Lang e.a.: Remember the past: A comparison of time-adaptive training schemes for non-homogeneous regression Nonlinear Processes in Geophysics, 27: 23–34 2020. (eher stochastisch) S. Rasp und S. Lerch: Neural networks for post-processing ensemble weather forecasts Monthly Weather Review, 146(11): 3885–3900 2018. Lehrbücher T. Hastie, R. Tibshirani, J. Friedman: The Elements of Statistical Learning Springer 2017 (2nd Edition). G. James, D. Witten, T. Hastie and R. Tibshirani: An Introduction to Statistical Learning Springer 2013 (7nd Edition) I. Goodfellow and Y. Bengio and A. Courville: Deep Learning MIT-Press 2016. Online Kurse Pytorch-based Python library fastai Deeplearning Dystopie für alltägliche KI C. Doctorow: Little Brother Tor Teen, 2008. download beim Author C. Doctorow: Homeland Tor Books, 2013, ISBN 978-0-7653-3369-8 im Gespräch angesprochene Bildbearbeitung, die eigene Fotos mit Kunstwerken verschmilzt Meetups im Umland von Karlsruhe Karlsruhe ai Meetup Heidelberg ai Meetup Machine Learning Rhein-Neckar (Mannheim) Podcasts Leben X0 - Episode 6: Was ist Machine Learning? November 2019. Streitraum: Intelligenz und Vorurteil Carolin Emcke im Gespräch mit Anke Domscheit-Berg und Julia Krüger, 26. Januar 2020 P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019.
3/5/2020 • 41 minutes, 23 seconds
Photoacoustic Tomography
In March 2018 Gudrun had a day available in London when travelling back from the FENICS workshop in Oxford. She contacted a few people working in mathematics at the University College London (ULC) and asked for their time in order to talk about their research. In the end she brought back three episodes for the podcast. This is the second of these conversations. Gudrun talks to Marta Betcke. Marta is associate professor at the UCL Department of Computer Science, member of Centre for Inverse Problems and Centre for Medical Image Computing. She has been in London since 2009. Before that she was a postdoc in the Department of Mathematics at the University of Manchester working on novel X-ray CT scanners for airport baggage screening. This was her entrance into Photoacoustic tomography (PAT), the topic Gudrun and Marta talk about at length in the episode. PAT is a way to see inside objects without destroying them. It makes images of body interiors. There the contrast is due to optical absorption, while the information is carried to the surface of the tissue by ultrasound. This is like measuring the sound of thunder after lightning. Measurements together with mathematics provide ideas about the inside. The technique combines the best of light and sound since good contrast from optical part - though with low resolution - while ultrasound has good resolution but poor contrast (since not enough absorption is going on). In PAT, the measurements are recorded at the surface of the tissue by an array of ultrasound sensors. Each of that only detects the field over a small volume of space, and the measurement continues only for a finite time. In order to form a PAT image, it is necessary to solve an inverse initial value problem by inferring an initial acoustic pressure distribution from measured acoustic time series. In many practical imaging scenarios it is not possible to obtain the full data, or the data may be sub-sampled for faster data acquisition. Then numerical models of wave propagation can be used within the variational image reconstruction framework to find a regularized least-squares solution of an optimization problem. Assuming homogeneous acoustic properties and the absence of acoustic absorption the measured time series can be related to the initial pressure distribution via the spherical mean Radon transform. Integral geometry can be used to derive direct, explicit inversion formulae for certain sensor geometries, such as e.g. spherical arrays. At the moment PAT is predominantly used in preclinical setting, to image tomours and vasculature in small animals. Breast imaging, endoscopic fetus imaging as well as monitoring of perfusion and drug metabolism are subject of intensive ongoing research. The forward problem is related to the absorption of the light and modeled by the wave equation assuming instanteneous absorption and the resulting thearmal expansion. In our case, an optical ultrasound sensor records acoustic waves over time, i.e. providing time series with desired spacial and temporal resolution. Given complete data, then one can mathematically reverse the time direction and find out the original object. Often it is not possible to collect a complete data due to e.g. single sided access to the object as in breast imaging or underlying dynamics happening on a faster rate than one can collect data. In such situations one can formulate the problem in variational framework using regularisation to compensate for the missing data. In particular in subsampling scenario, one would like to use raytracing methods as they scale linearly with the number of sensors. Marta's group is developing flexible acoustic solvers based on ray tracing discretisation of the Green's formulas. They cannot handle reflections but it is approximately correct to assume this to be true as the soundspeed variation is soft tissue is subtle. These solvers can be deployed alongside with stochastic iterative solvers for efficient solution of the variational formulation. Marta went to school in Poland. She finished her education there in a very selected school and loved math due to a great math teacher (which was also her aunt). She decidede to study Computer Sciences, since there she saw more chances on the job market. When moving to Germany her degree was not accepted, so she had to enrol again. This time for Computer Sciences and Engineering at the Hamburg University of Technology. After that she worked on her PhD in the small group of Heinrich Voss there. She had good computing skills and fit in very well. When she finished there she was married and had to solve a two body problem, which brought the couple to Manchester, where a double position was offered. Now both have a permanent position in London. References M. Betcke e.a.: Model-Based Learning for Accelerated, Limited-View 3-D Photoacoustic Tomography IEEE Transactions on Medical Imaging 37, 1382 - 1393, 2018. F. Rullan & M. Betcke: Hamilton-Green solver for the forward and adjoint problems in photoacoustic tomography archive, 2018. M. Betcke e.a.: On the adjoint operator in photoacoustic tomography Inverse Problems 32, 115012, 2016. doi C. Lutzweiler and D. Razansky: Optoacoustic imaging and tomography - reconstruction approaches and outstanding challenges in image performance and quantification, Sensors 13 7345, 2013. doi: 10.3390/s130607345 Podcasts G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. F. Cakoni, G. Thäter: Linear Sampling, Conversation im Modellansatz Podcast, Episode 226, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. G. Thäter, R. Aceska: Dynamic Sampling, Gespräch im Modellansatz Podcast, Folge 173, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. S. Hollborn: Impedanztomographie. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 68, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
2/27/2020 • 45 minutes, 28 seconds
Waveguides
This is the third of three conversation recorded during the Conference on mathematics of wave phenomena 23-27 July 2018 in Karlsruhe. Gudrun is in conversation with Anne-Sophie Bonnet-BenDhia from ENSTA in Paris about transmission properties in perturbed waveguides. The spectral theory is essential to study wave phenomena. For instance, everybody has experimented with resonating frequencies in a bathtube filled with water. These resonant eigenfrequencies are eigenvalues of some operator which models the flow behaviour of the water. Eigenvalue problems are better known for matrices. For wave problems, we have to study eigenvalue problems in infinite dimension. Like the eigenvalues for a finite dimensional matrix the Spectral theory gives access to intrinisic properties of the operator and the corresponding wave phenomena. Anne-Sophie is interested in waveguides. For example, optical fibres can guide optical waves while wind instruments are guides for acoustic waves. Electromagnetic waveguides also have important applications. A practical objective is to optimize the transmission in a waveguide, even if there are some perturbations inside. It is known that for certain frequencies, there is no reflection by the perturbations but it is not apriori clear how to find these frequencies. Anne-Sophie uses complex analysis for that. The idea is to complexify the (originally real) coordinates by analytic extension. It is a classic idea for resonances that she adapts to the problem of transmission. This mathematical method of complex scaling is linked to the method of perfectly matched layers in numerics. It is used to solve problems set in unbounded domains on a computer by finite elements. Thanks to the complex scaling, she can solve a problem in a bounded domain, which reproduces the same behaviour as in the infinite domain. Finally, Anne-Sophie is able to get numerically a complex spectrum of frequencies, related to the quality of the transmission in a perturbed waveguide. The imaginary part of the complex quantity gives an indication of the quality of the transmission in the waveguide. The closer to the real axis the better the transmission. References A-S. Bonnet-BenDhia, L. Chesnel and V. Pagneux:Trapped modes and reflectionless modes as eigenfunctions of the same spectral problem Proceedings of the Royal Society A, 2018, doi 10.1098/rspa.2018.0050 A-S. Bonnet-BenDhia: Mathematical and numerical treatment of plasmonic waves at corners of metals and metamaterials Emerging Topics in Optics, IMA, Minneapolis, 2017 A-S. Bonnet-BenDhia, L. Chesnel and S. Nazarov: Perfect transmission invisibility for waveguides with sound hard walls Journal de Mathématiques Pures et Appliquées, 2017, doi 10.1016/j.matpur.2017.07.020 A.-S. Bonnet-BenDhia e.a.: A method to build non-scattering perturbations of two-dimensional acoustic waveguides Math. meth. appl. sci., vol. 40, pp. 335–349, 2015 doi 10.1002/mma.3447 Podcasts S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
2/6/2020 • 31 minutes, 31 seconds
Gruppenentscheidungen
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. Gudrun sprach im Januar 2020 mit drei Studenten ihrer Vorlesung Mathematical Modelling and Simulation: Samory Gassama, Lennart Harms und David Schneiderhan. Sie hatten in ihrem Projekt Gruppenentscheidungen modelliert. In dem Gespräch geht es darum, wie man hierfür mathematische Modelle findet, ob man Wahlsysteme fair gestalten kann und was sie aus den von ihnen gewählten Beispielen gelernt haben. Wie lassen sich Entscheidungen von Wählergruppen fair in demokratische Willensbildung einbringen? Mit diesem Thema beschäftigt sich u.a. auch die Volkswirtschaftslehre. Die dafür benutzten Modelle sollten einige Eigenschaften haben. Ein grundlegendes Kriterium wäre beispielsweise: Wenn alle der gleichen Meinung sind, sollte diese Meinung auch immer die Gruppenentscheidung sein. Ein weiteres Kriterum könnte verlangen, dass das Ergebnis Pareto-optimal ist, es also kein anderes Ergebnis gibt, mit dem jedes Gruppenmitglied zufriedener wäre. Um die Präferenz der Gruppe auszudrücken, führen die Studenten die Wohlfahrtsfunktion ein. Das ist eine Abbildung, welche als Input die Präferenzen der einzelnen Wähler verknüpft. Das Wahlverfahren wird sozusagen in dieser Abbildung modelliert. Man wünscht sich Anonymität: Jede Stimme sollte gleich gewertet werden. Neutralität: Wenn die Relationen im Input invertiert werden, bewirkt dies das Selbe beim Output. Monotonie: Falls eine Relation aus dem Input, welche nicht den Präferenzen des Outputs entspricht, sich zur Präferenzrelation des Outputs ändert, bleibt dieser gleich. Verfahren wie Rangaddition und Condorcet-Methode sind klassisch und erfüllen leider nicht alle diese Bedingungen. Die Studenten fügen eine weitere Entscheidungsebene im Modell hinzu. Man nennt dies geschachtelte Wahl. Als Beispiele dienen die US Präsidentschaftswahl 2016 und der Eurovision Song Contest 2019. Bei den Präsidentschaftswahlen in den VereinigtenStaaten von Amerika, wird der Präsident von den Wahlleuten der Bundesstaaten für eine Amtszeit bestimmt. Jeder Bundesstaat hat unterschiedlich viele Wahlleute. Die Wahlberechtigten legen unmittelbar nur die Wahlleute fest. Deshalb ist das Modell der US Präsidentschaftswahlen ist ein geschachteltes Modell. Im ersten Schritt, werden in allen 52 Staaten die Wahlen, mit den US Bürgern des jeweiligen Staates als Wähler, mithilfe des Condorcet Modells durchgeführt. Im zweiten Schritt bilden eben jene 52 Staaten die neue Wählermenge, welche dann über eine gewichtete Rangaddition den endgültigen Präsidenten bestimmt. Die Studenten haben im Projekt zwei Datensätze verwendet, um die Präsidentschaftswahlen 2016 in den USA zwischen Donald Trump und Hillary Clinton zu simulieren. Sie geben die Anzahl der Stimmen für Donald Trump und Hillary Clinton in den verschiedenen Wahlbezirken der USA an. Um die Simulation durchzuführen, wurde Google Colab verwendet. Die benutzte Programmiersprache ist Python. Die Wahl wurde folgendermaßen simuliert: Man summiert die Anzahl der Stimmen für alle Kandidaten in jedem Staat. Anschließend vergleicht man die Anzahl der Stimmen für Trump und Clinton in jedem Bundesstaat. Dem Gewinner eines Staates werden die Anzahl der Wahlleute dieses Bundesstaates in das Endergebnis addiert. Zum Schluss werden die Anzahl der Wahlleute, welche für die Kandidaten gestimmt haben verglichen. Trump gewinnt die Wahlen in 30 Bundesstaaten und Clinton in 20 Bundesstaaten, genauer gesagt erhält Trump 304 Wahlleute und Clinton 227. Somit wäre gewinnt Trump gegen Clinton. Alternativ zum geschachtelten Modell, wird anschließend die Abstimmungsmethode direkt auf alle Wahlstimmen angewandt. Dabei erhält Trump 62.984.828 Stimmen, während Clinton 65.853.514 bekommt. Bei diesem Verfahren gewinnt Clinton gegen Trump. Im Gespräch wird besprochen, dass es ein Problem ist, wenn bei recht knappem Wahlausgang pro Bundesstaat eine "Rundung" auf Wahlleute erfolgt und diese dann addiert wird. Im Vergleich hierzu kann es bei vielen Parteien auch durch Instrumente wie die 5%-Hürde, die wir in Deutschland implementiert haben, zu unfairen Effekten kommen. Die Regeln beim Eurovision Song Contest sind wie folgt: Aus den Televoting-Ergebnissen und den Jurywertungen jedes einzelnen Landes setzt sich das Gesamtergebnis für alle Teilnehmenden zusammen. Die besten zehn Titel werden mit eins, zwei, drei, vier, fünf, sechs, sieben, acht, zehn und zwölf Punkten bewertet. Dabei werden die Jury- und Zuschauerwertungen seit 2016 voneinander getrennt. Jedes Land kann einem Teilnehmenden also bis zu 24 Punkte geben - zwölf durch die Jury, zwölf durch die Zuschauer. Wenn zwei Songs auf die gleiche Punktzahl kommen, bekommt das Land die höhere Punktzahl, das vom Publikum höher bewertet wurde. Abgesehen davon, dass es sich auch hierbei wieder um ein geschachteltes Modell handelt, werden hierbei auch noch die gewichtete Rangaddition und ein externes Diktator Modell verwendet. Literatur und weiterführende Informationen A.D. Taylor and A.M. Pacelli: Mathematics and Politics - Strategy, Voting, Power, and Proof. Springer-Verlag, Berlin Heidelberg, 2nd corrected ed. 2008, corr. 3rd printing, 2009. H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W.D. Wallis. The Mathematics of Elections and Voting. Springer, Berlin, Heidelberg, 2014. au. edition, 2014. K. Loewenstein: Verfassungsrecht und Verfassungspraxis der Vereinigten Staaten, Springer-Verlag, Berlin Heidelberg New York, 1959. US Election Tracker as xlsx, 2016. nytimes presidential elections 2016 results as csv, 2016. ESC Regelwerk, 2019. ESC Datensatz, 2019. S. Gassama, L. Harms, D. Schneiderhan: Gruppenentscheidungen. Jupyter Notebooks: Eurocontest_2019.ipynb (Web-Viewer), MS_USA_2016.ipynb (Web-Viewer) Podcasts P. Stursberg, G. Thäter: Social Choice, Gespräch im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Lübbecke, S. Ritterbusch: Operations Research, Gespräch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt, G. Thäter: Wahlsysteme, Gespräch im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich, T. Pritlove: Wahlrecht und Wahlsysteme, Gespräch im CRE Podcast, Folge 128, Metaebene Personal Media, 2009.
1/31/2020 • 34 minutes, 58 seconds
Algorithmisches Differenzieren
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. Gudruns Arbeitsgruppe begrüßte im Januar 2020 Andrea Walther als Gast. Sie ist Expertin für das algorithmische Differenzieren (AD) und ihre Arbeitsgruppe ist verantwortlich für das ADOL-C Programmpaket zum algorithmischen Differenzieren. Zusammen mit Andreas Griewank hat sie 2008 das Standardbuch zu AD veröffentlicht. Im Abitur und im mathematischen Grundstudium lernt jede und jeder Anwendungen kennen, wo Ableitungen von Funktionen gebraucht werden. Insbesondere beim Auffinden von Minima und Maxima von Funktionen ist es sehr praktisch, dies als Nullstellen der Ableitung zu finden. Bei der Modellierung komplexer Zusammenhänge mit Hilfe von partiellen Differentialgleichungen ist es möglich, diese Idee in ein abstrakteres Setting zu Übertragen. Eine sogenannte Kostenfunktion misst, wie gut Lösungen von partiellen Differentialgleichungen einer vorgegebenen Bedingung genügen. Man kann sich beispielsweise einen Backofen vorstellen, der aufgeheizt wird, indem am oberen und unteren Rand eine Heizspirale Wärme in den Ofen überträgt. Für den Braten wünscht man sich eine bestimmte Endtemperaturverteilung. Die Wärmeverteilung lässt sich mit Hilfe der Wärmeleitungsgleichung berechnen. In der Kostenfunktion wird dann neben der gewünschten Temperatur auch noch Energieeffizienz gemessen und die Abweichung von der Endtemperatur wird zusammen mit der benötigten Energie minimiert. Auch hierzu werden Ableitungen berechnet, deren Nullstellen helfen, diese Kosten zu minimeren. Man spricht hier von optimaler Steuerung. Eine Möglichkeit, die abstrakte Ableitung auszudrücken, ist das Lösen eines sogenannten adjungierten partiellen Differenzialgleichungsproblems. Aber hier wird es sehr schwierig, immer schnell und fehlerfrei Ableitungen von sehr komplexen und verschachtelten Funktionen zu berechnen, zumal sie für jedes Problem immer wieder neu und anders aussehen. Außerdem braucht man in der numerischen Auswertung des Algorithmus oft nur Werte dieser Ableitung an bestimmten Stellen. Deshalb ist die effiziente Berechnung von Funktionswerten der Ableitung ein unverzichtbarer Baustein in zahlreichen Anwendungen, die von Methoden zur Lösung nichtlinearer Gleichungen bis hin zu ausgefeilten Simulationen in der Optimierung und optimalen Kontrolle reichen. Am liebsten sollte dies der Computer fehlerfrei oder doch mit sehr kleinen Fehlern übernehmen können. Auch für das Newtonverfahren braucht man die Ableitung der Funktion. Es ist das Standardverfahren zur Lösung nichtlinearer Gleichungen und Gleichungssysteme. Das algorithmische Differenzieren (AD) liefert genaue Werte für jede Funktion, die in einer höheren Programmiersprache gegeben ist, und zwar mit einer zeitlichen und räumlichen Komplexität, die durch die Komplexität der Auswertung der Funktion beschränkt ist. Der Kerngedanke der AD ist die systematische Anwendung der Kettenregel der Analysis. Zu diesem Zweck wird die Berechnung der Funktion in eine (typischerweise lange) Folge einfacher Auswertungen zerlegt, z.B. Additionen, Multiplikationen und Aufrufe von elementaren Funktionen wie zum Beispiel Exponentialfunktion oder Potenzen. Die Ableitungen bezüglich der Argumente dieser einfachen Operationen können leicht berechnet werden. Eine systematische Anwendung der Kettenregel ergibt dann die Ableitungen der gesamten Sequenz in Bezug auf die Eingangsvariablen Man unterscheidet zwei Verfahren: den Vorwärts- und den Rückwärtsmodus. Im Vorwärtsmodus berechnet man das Matrizenprodukt der Jacobi-Matrix mit einer beliebigen Matrix (sogenannte Seedmatrix), ohne vorher die Komponenten der Jacobi-Matrix zu bestimmen. Der Rückwärtsmodus besteht aus zwei Phasen. Die Originalfunktion wird zunächst ausgeführt und gewisse Daten abgespeichert. Anschließend rechnet man rückwärts. Dabei werden Richtungsableitungen übergeben und es werden die im ersten Schritt gespeicherten Daten verwendet. Mit dem Rückwärtsmodus von AD ist es möglich, den Gradienten einer skalarwertigen Funktion mit Laufzeitkosten von weniger als vier Funktionsauswertungen zu berechnen. Diese Grenze ist auch noch völlig unabhängig von der Anzahl der Eingangsvariablen. Das ist phänomenal effektiv, aber er ist mit einem erhöhten Speicherbedarf verbunden. Im Laufe der Jahre wurden Checkpointing-Strategien entwickelt, um einen goldenen Mittelweg zu finden. Die Methoden sind für viele und sehr unterschiedliche Anwendungen interessant. In DFG-Projekten an denen Andrea beteiligt war und ist, wurde das unter anderem für die Modellierung von Piezokeramiken und für die Maxwellsche Wellengleichung umgesetzt. Außerdem sprechen Gudrun und Andrea über die Optimierung der Form einer Turbinenschaufel. Andrea begann ihre berufliche Laufbahn mit einer Ausbildung zur Bankkauffrau in Bremerhaven. Sie entschied sich anschließend für ein Studium der Wirtschaftsmathematik, um Mathematik und ihren erlernten Beruf zusammen zu halten. Unter den wenigen verfügbaren Standorten für so ein Studium in Deutschland entschied sie sich für die Universität Bayreuth. Nach Abschluss des Diploms gab es die Chance, an der TU Dresden im Optimierungsfeld zu arbeiten. Dort promovierte sie, wurde es später Leiterin der selbständigen Nachwuchsgruppe "Analyse und Optimierung von Computermodellen", Juniorprofessorin für "Analyse und Optimierung von Computermodellen" und habilitierte sich. 2009-2019 war sie als Professorin für "Mathematik und ihre Anwendungen" an der Universität Paderborn tätig. Seit Oktober 2019 ist sie Professorin für "Mathematische Optimierung", Humboldt-Universität zu Berlin. Literatur und weiterführende Informationen A. Griewank und A. Walther: Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation, Second Edition. SIAM (2008). A. Gebremedhin und A. Walther: An Introduction to Algorithmic Differentiation. in WIREs Data Mining and Knowledge Discovery. S. Fiege, A. Walther und A. Griewank: An algorithm for nonsmooth optimization by successive piecewise linearization. Mathematical Programming 177(1-2):343-370 (2019). A. Walther und A. Griewank: Characterizing and testing subdifferential regularity for piecewise smooth objective functions. SIAM Journal on Optimization 29(2):1473-1501 (2019). Podcasts G. Thäter, A. Zarth: Automatic Differentiation, Gespräch im Modellansatz Podcast, Folge 167, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, P. Allinger und N. Stockelkamp: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
1/23/2020 • 1 hour, 8 minutes, 58 seconds
Pattern Formation
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. In the coming weeks until February 20, 2020, Anna Hein, student of science communication at KIT, intends to conduct a study on the Modellansatz Podcast within her master's thesis. For this purpose, she would like to conduct some interviews with you, the listeners of the Modellansatz Podcast, to find out who listens to the podcast and how and for what purpose it is used. The interviews will be anonymous and will take about 15 minutes each. To participate in the study, you can register with Anna Hein until 20.2.2020 at studie.modellansatz@web.de . We would be very pleased if many interested parties would contact us. This is the second of three conversation recorded Conference on mathematics of wave phenomena 23-27 July 2018 in Karlsruhe. Gudrun is in conversation with Mariana Haragus about Benard-Rayleigh problems. On the one hand this is a much studied model problem in Partial Differential Equations. There it has connections to different fields of research due to the different ways to derive and read the stability properties and to work with nonlinearity. On the other hand it is a model for various applications where we observe an interplay between boyancy and gravity and for pattern formation in general. An everyday application is the following: If one puts a pan with a layer of oil on the hot oven (in order to heat it up) one observes different flow patterns over time. In the beginning it is easy to see that the oil is at rest and not moving at all. But if one waits long enough the still layer breaks up into small cells which makes it more difficult to see the bottom clearly. This is due to the fact that the oil starts to move in circular patterns in these cells. For the problem this means that the system has more than one solutions and depending on physical parameters one solution is stable (and observed in real life) while the others are unstable. In our example the temperature difference between bottom and top of the oil gets bigger as the pan is heating up. For a while the viscosity and the weight of the oil keep it still. But if the temperature difference is too big it is easier to redistribute the different temperature levels with the help of convection of the oil. The question for engineers as well as mathematicians is to find the point where these convection cells evolve in theory in order to keep processes on either side of this switch. In theory (not for real oil because it would start to burn) for even bigger temperature differences the original cells would break up into even smaller cells to make the exchange of energy faster. In 1903 Benard did experiments similar to the one described in the conversation which fascinated a lot of his colleagues at the time. The equations where derived a bit later and already in 1916 Lord Rayleigh found the 'switch', which nowadays is called the critical Rayleigh number. Its size depends on the thickness of the configuration, the viscositiy of the fluid, the gravity force and the temperature difference. Only in the 1980th it became clear that Benards' experiments and Rayleigh's analysis did not really cover the same problem since in the experiment the upper boundary is a free boundary to the surrounding air while Rayleigh considered fixed boundaries. And this changes the size of the critical Rayleigh number. For each person doing experiments it is also an observation that the shape of the container with small perturbations in the ideal shape changes the convection patterns. Maria does study the dynamics of nonlinear waves and patterns. This means she is interested in understanding processes which change over time. Her main questions are: Existence of observed waves as solutions of the equations The stability of certain types of solutions How is the interaction of different waves She treats her problems with the theory of dynamical systems and bifurcations. The simplest tools go back to Poincaré when understanding ordinary differential equations. One could consider the partial differential equations to be the evolution in an infinite dimensional phase space. Here, in the 1980s, Klaus Kirchgässner had a few crucial ideas how to construct special solutions to nonlinear partial differential equations. It is possible to investigate waterwave problems which are dispersive equations as well as flow problems which are dissipative. Together with her colleagues in Besancon she is also very keen to match experiments for optical waves with her mathematical analysis. There Mariana is working with a variant of the Nonlinear Schrödinger equation called Lugiato-Lefever Equation. It has many different solutions, e.g. periodic solutions and solitons. Since 2002 Mariana has been Professor in Besancon (University of Franche-Comté, France). Before that she studied and worked in a lot of different places, namely in Bordeaux, Stuttgart, Bucharest, Nice, and Timisoara. References V.A. Getling: Rayleigh-Bénard Convection Structures and Dynamics, Advanced Series in Nonlinear Dynamics, Volume 11, World Scientific, Oxford (1998) P. H. Rabinowitz: Existence and nonuniqueness of rectangular solutions of the Bénard problem. Arch. Rational Mech. Anal. (1968) 29: 32. M. Haragus and G. Iooss: Local bifurcations, center manifolds, and normal forms in infinite-dimensional dynamical systems. Universitext. Springer-Verlag London, Ltd., London; EDP Sciences, Les Ulis, 2011. Newell, Alan C. Solitons in mathematics and physics. CBMS-NSF Regional Conference Series in Applied Mathematics, 48. Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 1985. Y. K. Chembo, D. Gomila, M. Tlidi, C. R. Menyuk: Topical Issue: Theory and Applications of the Lugiato-Lefever Equation. Eur. Phys. J. D 71 (2017). Podcasts S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
1/16/2020 • 30 minutes, 7 seconds
Linear Sampling
In den nächsten Wochen bis zum 20.2.2020 möchte Anna Hein, Studentin der Wissenschaftskommunikation am KIT, eine Studie im Rahmen ihrer Masterarbeit über den Podcast Modellansatz durchführen. Dazu möchte sie gerne einige Interviews mit Ihnen, den Hörerinnen und Hörern des Podcast Modellansatz führen, um herauszufinden, wer den Podcast hört und wie und wofür er genutzt wird. Die Interviews werden anonymisiert und werden jeweils circa 15 Minuten in Anspruch nehmen. Für die Teilnahme an der Studie können Sie sich bis zum 20.2.2020 unter der Emailadresse studie.modellansatz@web.de bei Anna Hein melden. Wir würden uns sehr freuen, wenn sich viele Interessenten melden würden. In the coming weeks until February 20, 2020, Anna Hein, student of science communication at KIT, intends to conduct a study on the Modellansatz Podcast within her master's thesis. For this purpose, she would like to conduct some interviews with you, the listeners of the Modellansatz Podcast, to find out who listens to the podcast and how and for what purpose it is used. The interviews will be anonymous and will take about 15 minutes each. To participate in the study, you can register with Anna Hein until 20.2.2020 at studie.modellansatz@web.de . We would be very pleased if many interested parties would contact us. This is the first of three conversation recorded Conference on mathematics of wave phenomena 23-27 July 2018 in Karlsruhe. Gudrun talked to Fioralba Cakoni about the Linear Sampling Method and Scattering. The linear sampling method is a method to reconstruct the shape of an obstacle without a priori knowledge of either the physical properties or the number of disconnected components of the scatterer. The principal problem is to detect objects inside an object without seeing it with our eyes. So we send waves of a certain frequency range into an object and then measure the response on the surface of the body. The waves can be absorbed, reflected and scattered inside the body. From this answer we would like to detect if there is something like a tumor inside the body and if yes where. Or to be more precise what is the shape of the tumor. Since the problem is non-linear and ill posed this is a difficult question and needs severyl mathematical steps on the analytical as well as the numerical side. In 1996 Colton and Kirsch (reference below) proposed a new method for the obstacle reconstruction problem in inverse scattering which is today known as the linear sampling method. It is a method to solve the above stated problem, which scientists call an inverse scattering problem. The method of linear sampling combines the answers to lots of frequencies but stays linear. So the problem in itself is not approximated but the interpretation of the response is. The central idea is to invert a bounded operator which is constructed with the help of the integral over the boundary of the body. Fioralba got her Diploma (honor’s program) and her Master's in Mathematics at the University of Tirana. For her Ph.D. she worked with George Dassios from the University of Patras but stayed at the University of Tirana. After that she worked with Wolfgang Wendland at the University of Stuttgart as Alexander von Humboldt Research Fellow. During her second year in Stuttgart she got a position at the University of Delaware in Newark. Since 2015 she has been Professor at Rutgers University. She works at the Campus in Piscataway near New Brunswick (New Jersey). References F. Cakoni, D. Colton and H. Haddar, Inverse Scattering Theory and Transmission Eigenvalues, CBMS-NSF Regional Conference Series in Applied Mathematics, 88, SIAM Publications, 2016. F. Cakoni, D. Colton, A Qualitative Approach to Inverse Scattering Theory, Springer, Applied Mathematical Series, Vol. 188, 2014. T. Arens: Why linear sampling works, Inverse Problems 20 163-173, 2003. https://doi.org/10.1088/0266-5611/20/1/010 A. Kirsch: Characterization of the shape of a scattering obstacle using the spectral data of the far field operator, Inverse Problems 14 1489-512, 1998 D. Colton, A. Kirsch: A simple method for solving inverse scattering problems in the resonance region, Inverse Problems 12 383-93, 1996. Podcasts S. Fliss, G. Thäter: Transparent Boundaries. Conversation in the Modellansatz Podcast episode 75, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. M. Kray, G. Thäter: Splitting Waves. Conversation in the Modellansatz Podcast episode 62, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering. Conversation in the Modellansatz Podcast episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
1/9/2020 • 47 minutes, 40 seconds
Emmy Noether Konferenz
Emmy Noether, eine der bedeutendsten Mathematiker*innen weltweit, prägte mit ihren „Arbeits- und Auffassungsmethoden“ die moderne Algebra und trug entscheidend zur Algebraisierung mathematischer Disziplinen bei. Mit ihrer 1918 publizierten Habilitationsschrift löste sie zentrale mathematische Probleme der allgemeinen Relativitätstheorie. Am 4. Juni 1919 hielt Emmy Noether ihren Habilitationsvortrag. Sie war die erste Frau, die in Preußen habilitiert wurde. Genau 100 Jahre später stellte in Berlin eine interdisziplinäre Fachkonferenz deshalb die Frage: „Wie kommt das Neue in die Welt?“ Die Tagung wurde gemeinsam veranstaltet vom Berliner Exzellenzcluster MATH+, der Zentralen Frauenbeauftragten der Freien Universität Berlin und dem Max-Planck-Institut für Wissenschaftsgeschichte. Aus mathematischer, physikalischer, wissenschaftstheoretischer und ‑historischer Perspektive beleuchtete die Konferenz die Bedeutung Noethers bis in die Gegenwart. Darüber hinaus nahm sie Strukturen und Prozesse der Diskriminierung und Marginalisierung in den Blick, die Noether als Frau jüdischer Herkunft im deutschen Wissenschaftssystem widerfuhren und die Rezeption ihrer mathematischen Leistungen auch über ihren Tod hinaus beeinträchtigten. Den Abschluss bildete am 6. Juni 2019 eine öffentliche Podiumsdiskussion zur Frage "Wie kommt das Neue in die Welt? Reflexionen über das Verhältnis von Mathematik, Gesellschaft, Geschlecht und Diversität" unter Moderation von Jan-Martin Wiarda (Wissenschaftsjournalist). Das Gespräch hat Gudrun für unseren Podcast mitgeschnitten. Auf dem Podium waren vertreten: Prof. Dr. Katja Eilerts, Abteilung Grundschulpädagogik – Mathematik im Primarbereich, Humboldt-Universität zu Berlin Prof. Dr. Rupert Klein, Vorstandsmitglied des Exzellenzclusters MATH+ und Sprecher des Mathematik-SFB 1114, Freie Universität Berlin Prof. Dr. Helena Mihaljević, Professorin für Data Science und Analytics des Einstein Center Digital Future, Hochschule für Technik und Wirtschaft Berlin Dr. Anina Mischau, Leiterin der Arbeitsstelle Gender Studies in der Mathematik, Freie Universität Berlin Prof. Dr. Caren Tischendorf, Vorstandsmitglied des Exzellenzclusters MATH+, Humboldt-Universität zu Berlin Außerdem spricht am Ende des Mitschnittes Dr. Mechthild Koreuber Frauenbeauftragte der Freien Universität Berlin. Im Gespräch wird erörtert, inwieweit es zu Konflikten mit der Fachdisziplin Mathematik führt, wenn der Blick auch auf geschlechtergerechte Ausbildung - insbesondere im Lehramt - gelenkt wird. Anina Mischau hat hier Pionierarbeit in der Mathematik an der FU Berlin geleistet. Dort hat sie inzwischen den Eindruck, dass die Arbeit geschätzt wird. Bei der Untersuchung des Anteils von Frauen in den hoch renommierten Fachzeitschriften und auf den alle vier Jahre stattfindenden Intermationalen Konferenzen für Mathematik sind die Zahlen allerdings noch nicht sehr ermutigend. Selbst die relativ gibt es kaum Verbesserungen. Es stellt sich automatisch die Frage, wo diese Unterschiede herkommen. Im Gespräch wird erläutert, inwieweit der fachinterne Wettbewerb männlich geprägt ist und durch welche Maßnahmen es hier eine Veränderung geben kann. Für jede einzelne Berufung ist es nicht so offensichtlich, wie man hier Gerechtigkeit schaffen kann, wenn die Bewerberlage schon eine Schieflage hat. Die massive Nutzung von zählbaren Größen als wichtiges Kriterium im Vergleich ist ja eigentlich erst sehr jungen Datums und ist für die Arbeit als Professor bzw. Professorin nur ein Anhaltspunkt unter vielen für die Eignung. Die DFG hat hier schon einige ganz gute Ideen implementiert. z.B. in der Vorgabe nur eine vorgegebene Anzahl von Veröffentlichungen beizufügen, die relevant sind und auch von Gutachtern in ihr Bild einbezogen werden können (statt Anzahlen zu vergleichen). Frauen müssen schon früh von außen Bestätigung bekommen, wenn sie sich als begabt und geeignet zeigen. Das Übersehen von Talent abseits der ausgetretenen Pfade wird sich in jedem Fall als Nachteil für jede Bildungseinrichtung auswirken. Häufig geht es hier auch um Themenfelder, die etwa abseits der Trends liegen. Das Theaterstück „Mathematische Spaziergänge mit Emmy Noether" kann am 10. Dezember 2019 in Göttingen sowie am 12. Mai 2020 in München besucht werden. Das Exzellenzclusters MATH+ ist ein institutionenübergreifender und transdisziplinärer Exzellenzcluster. Ziel ist es, neue Ansätze in der anwendungsorientierten Mathematik zu erforschen und weiterzuentwickeln. Der Schwerpunkt liegt auf mathematischen Prinzipien zur Nutzung immer größerer Datenmengen in den Lebens- und Materialwissenschaften, in der Energie- und Netzwerkforschung sowie in den Geistes- und Sozialwissenschaften. Innerhalt des Clusters gibt es auch ein soziologisches Projekt, das die Karrierewege der beteiligten jungen Wissenschaftler und Wissenschaftlerinnen über einen längeren Zeitraum begleiten und untersuchen wird. MATH+ wird von der DFG für einen ersten Zeitraum von sieben Jahren seit Januar 2019 gefördert. Es ist ein Gemeinschaftsprojekt der drei großen Berliner Universitäten - Freie Universität Berlin, Humboldt-Universität zu Berlin und Technische Universität Berlin - sowie des Weierstraß-Instituts für Angewandte Analysis und Stochastik (WIAS) und des Zuse Instituts Berlin (ZIB). MATH+ setzt die Erfolgsgeschichten des renommierten Forschungszentrums MATHEON und der Excellence-Graduate School Berlin Mathematical School (BMS) fort. Die Referent*innen im Detail Prof. Dr. Katja Eilerts Professorin für Grundschulpädagogik, Dr. rer. nat., promovierte in der Fakultät für Informatik, Elektrotechnik und Mathematik an der Universität Paderborn; 1997-2000 Studium des Lehramtes für die Primarstufe, Universität Paderborn; seit 2014 W2-Professorin für Grundschulpädagogik - Lernbereich Mathematik an der Humboldt Universität zu Berlin; 2012 Ruf auf eine W2-Professur an der Freien Universität Berlin (abgelehnt); 2012-2014 W2-Professorin für Grundschulpädagogik/Mathematik an der Universität Potsdam; 2011-2012 Gast-Professorin an der Freien Universität Berlin; 2009-2011 Vertretungs-Professorin an der Universität Kassel im Bereich der Mathematik-Didaktik; 2007-2009 Wissenschaftliche Mitarbeiterin, Fakultät für Informatik, Elektrotechnik und Mathematik, Universität Paderborn; 2005-2007 Stipendiatin des Graduiertenkollegs der Universität Paderborn & Lehrauftrag an der Fakultät für Informatik, Elektrotechnik und Mathematik, Universität Paderborn. Prof. Dr. Rupert Klein Professor für numerische Strömungsmechanik an der Freien Universität Berlin. 1979-1983 Studium Maschinenbau an der RWTH Aachen; Promotion 1988 in Maschinenbau; 1988-1990 Post-Doktorand, Mathematik, Princeton University; ab 1991 wissenschaftlicher Assistent in Aachen; 1995 Habilitation; 1996/97 Professor für Sicherheitstechnik an der Bergischen Universität Wuppertal; 1997-2007 Abteilungsleiter Data & Computation am Potsdam-Institut für Klimafolgenforschung (2006-2007 stellv. Direktor); ab 1997 Professor für Wissenschaftliches Rechnen (Scientific Computing) und Modellierung und Simulation globaler Umweltsysteme an der FU Berlin. Dr. Mechthild Koreuber Dipl. Mathematikerin, promovierte Mathematikhistorikerin; Studium der Mathematik, Geschichte, Politikwissenschaften und Philosophie an der Freien Universität Berlin; 1990–1998 wissenschaftliche Mitarbeiterin in der theoretischen Informatik an der Technischen Universität Berlin; seit 1999 hauptberufliche Zentrale Frauenbeauftragte der Freien Universität Berlin; 2015 Promotion über Emmy Noether und die Noether-Schule. Prof. Dr. Helena Mihaljević Promovierte Mathematikerin, Studium der Mathematik an der Georg-August-Universität Göttingen; 2006–2009 Promotion in Mathematik an der University of Liverpool zu Topologischer Dynamik ganzer transzendenter Funktionen; 2009–2011 wissenschaftliche Mitarbeiterin am Mathematischen Seminar der Christian-Albrechts-Universität zu Kiel; 2011–2014 Editorin und stellvertretende Abteilungsleiterin bei FIZ Karlsruhe – Leibniz Institut für Informationsinfrastruktur, Abteilung Mathematik und Informatik; 2014–2018 Senior Data Scientist bei The unbelievable Machine Company, Berlin; seit 2018 Professorin für Data Science an der Hochschule für Technik und Wirtschaft (HTW) Berlin (Professur gehört zum Einstein Center Digital Future). Dr. Anina Mischau Soziologin 2002-2013 wissenschaftliche Mitarbeiterin am Interdisziplinären Zentrum für Frauen- und Geschlechterforschung (IFF) der Universität Bielefeld; 2012-2015 Gastprofessur für „Gender Studies in der Mathematik und Didaktik der Mathematik“ am FB Mathematik und Informatik der Freien Universität Berlin; 2015-2016 Gastprofessur zur „Integration von Genderkompetenz in die Lehramtsausbildung Primarstufe Mathematik“ am Institut für Erziehungswissenschaften, Abteilung Grundschulpädagogik – Lernbereich Mathematik der Humboldt-Universität zu Berlin; seit 2016 wissenschaftliche Mitarbeiterin am FB Mathematik und Informatik der FU Berlin, Leiterin der Arbeitsstelle „Gender Studies in der Mathematik“. Prof. Dr. Caren Tischendorf Studium der Mathematik in Berlin und Moskau; 1996 Promotion an der Humboldt-Universität zu Berlin in Numerischer Analysis, 2002-2004 Vorsitzende der Nachwuchsforschungsgruppe Numerische Analysis am DFG-Forschungszentrum MATHEON; 2004 Habilitation in Mathematik an der Humboldt-Universität zu Berlin; 2004-2006 Gastprofessorin an der TU; 2006-2012 Professorin für Mathematik/Numerische Analysis (W2) an der Universität zu Köln; seit Mai 2012 Professorin für Angewandte Mathematik am Institut für Mathematik an der Humboldt-Universität. Literatur und weiterführende Informationen Noether Konferenz im Juni 2019 in Berlin MATH+ K. Eilerts & K. Skutella (Hrsg.): Materialien für einen realitätsbezogenen Mathematikunterricht. (ISTRON, Bd. 5). Hildesheim: Franzbecker, 2019. H. Mihaljević e.a.: Reflections on Gender Analyses of Bibliographic Corpora. In: Frontiers in Big Data, S. 1-9, 2019, ISSN 2624-909X M. Koreuber, A. Mischau: Mathematik: Geschlechterforschung in disziplinären Zwischenräumen. In B. Kortendiek e.a. (Hrsg.), Handbuch Interdisziplinäre Geschlechterforschung. Geschlecht und Gesellschaft, Bd. 65 (S. 719-728), Wiesbaden: Springer VS (2019). H. Mihaljević: A data analysis of women's trails among ICM speakers. In World Women in Mathematics 2018. Proceedings of the First World meeting for Women in Mathematics (WM)² , S. 1-18, Springer, L. Santamaria, H. Mihaljević: Comparison and benchmark of name-to-gender inference services. In: Peer J Computer Science, 2018, ISSN 2376-5992 K. Eilerts & A. Mischau: Importance and possibility of integrating gender competence as a key qualification in mathematics teacher education. Paper für CERME10 vom 01.-05.02.2017, Dublin. H. Mihaljević e.a.: The Effect of Gender in the Publication Patterns in Mathematics. In: PLOS ONE, S. 1-23, 2016 Gendergap in science Bericht des Oberwolfach Mini-Workshops Women in Mathematics: Historical and Modern Perspectives 8.-14.1. 2017. Podcasts M. Koreuber, R. Klein, G. Thäter: Emmy Noether, Gespräch im Modellansatz Podcast, Folge 203, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Mischau, M. Koreuber, G. Thäter: Gender und Mathematik, Gespräch im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Jungbauer-Gans: Frauen in der Wissenschaft – Gleiche Chancen, Ungleiche Voraussetzungen? Zentrum für Gender Studies und feministische Zukunftsforschung, Podcast Kombinat, Universität Marburg, 2016.
11/30/2019 • 1 hour, 3 minutes, 47 seconds
Batemo
Gudrun traf im November 2019 Jan Richter. Er ist einer der Gründer der Batemo GmbH in Karlsruhe. Mit den Kollegiaten von SiMET hatte Gudrun das Unternehmen kurz vorher in der Technologiefabrik besucht und dabei das Podcast-Gespräch vereinbart. Batemo ist noch ein recht junges Unternehmen. Es wurde im März 2017 von Michael Schönleber und Jan Richter gegründet. Die beiden haben an der KIT-Fakultät für Elektrotechnik und Informationstechnik promoviert. Sie hatten sich schon länger mit der Idee auseinandergesetzt, im Anschluss an die Promotionszeit den Schritt zur Unternehmensgründung zu wagen. Es war klar, dass sie sich mit einem Thema beschäftigen möchten, das Ihnen ermöglicht, die Entwicklung von Akkus zu beeinflussen. Außerdem wollten sie gern ohne finanzielle Fremdmittel auskommen, um in jedem Moment die volle Kontrolle zu behalten. Inzwischen ist das gut gelungen und die Firma ist auf Simulationssoftware für Lithium-Ionen-Batterien spezialisiert. Für beliebige Lithium-Ionen-Zellen erstellen sie einen digitalen Zwilling, also ein Modell im Computer. Dass sie damit glaubwürdig für zahlungsfähige Kunden sind, liegt daran, dass sie auch die Validität dieser Modelle im gesamten Betriebsbereich nachweisen. Die Modelle sind sehr komplexe und stark nichtlinear gekoppelte Systeme aus algebraischen und partiellen Differentialgleichungen, die die physikalischen, chemischen und thermodynamische Prozesse abbilden. Sie sind auch dafür geeignet, das Verhalten der Akkus über die Lebenszeit der Zellen hin nachzubilden. Es ist besonders herausfordernd, da die Prozesse in unterschiedlichen Längen- und Zeitskalen ablaufen. Zwei Fragen, die beim Besuch mit den SiMET-Kollegiaten im Mittelpunkt des Gespräches standen, sind: Mit welchen Betriebsstrategien wird die Lebensdauer der Zellen erhöht? Wie werden innovative Schnellladeverfahren entwickelt, die die Zellen nicht zu schnell altern lassen? Im Gespräch berichtet Jan auch davon, wieso er sich für ein Studium der Elektrotechnik entschieden hat und wie er den Weg in die Selbstständigkeit von heute aus bewertet. Literatur und weiterführende Informationen A. Latz, J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. M. Maier: The Mathematical Analysis of a Micro Scale Model for Lithium-Ion Batteries. PhD Thesis KIT 2016 M. Kespe, H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Auinger: Optimale Akkuladung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Carelli, G. Thäter: Batteries, Gespräch im Modellansatz Podcast, Folge 211, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
11/23/2019 • 31 minutes, 12 seconds
Kristallgittermodelle
Gudrun spricht mit Axel Voigt. Er ist Professor für Wissenschaftliches Rechnen und Angewandte Mathematik an der TU Dresden. Axel war Ende Oktober 2019 zu Gast in Gudruns Arbeitsgruppe, um seine Modelle für Kristallgitter zu diskutieren. Der Wunsch der Gruppe war, sowohl die Modelle als auch die dafür passenden numerischen Verfahren besser zu verstehen. Sie sind insbesondere für die Simulation der Vorgänge in Akkumulatoren interessant, die im Rahmen das Graduiertenkollegs SiMET vorangetrieben werden. Viele feste Körper haben eine Gitterstruktur. Für z.B. Silizium, Aluminium und Stahl ist dies ein Kristallgitter. In der Schule wird es der Einfachheit halber oft so dargestellt, als wäre das Kristallgitter eine feste Größe für solche Stoffe. In der Natur sind es aber polykristalline Materialien. D.h. sie bestehen aus vielen unterschiedlichen Einzelkristallen. Diese sind durch Korngrenzen voneinander getrennt. Das Studium polykristalliner Materialien erfordert theoretische und rechnerische Techniken, die Untersuchungen auf unterschiedlich großen Skalen ermöglichen. Kristallgitterverformungen können mikroskopisch beschrieben werden, indem die Position der Atome explizit berücksichtigt wird, oder makroskopisch durch Kontinuumselastizität. Grobkörnige, mesoskalige Ansätze sind daher geeignete Werkzeuge, um Informationen über polykristalline Materialien bereitzustellen. In seiner Forschung betrachtet Axel sie als kontinuierliche elastische Felder, die aus einer atomistischen Darstellung der kristallinen Strukturen abgeleitet sind. So enthält sie auch wichtige Merkmale, die für die mikroskopische Skala typisch sind. Die Größe und Phase der Amplituden der Fourierspektrum, zusammen mit der kontinuierlichen Beschreibung der Dehnungen, sind in der Lage, Kristalldrehungen, Gitterverformungen und Versetzungen zu charakterisieren. Darüber hinaus stellen sie in Kombination mit der so genannten Amplitudenerweiterung des Phasenfeld-Kristallmodells ein geeignetes Werkzeug zur Überbrückung mikroskopischer bis makroskopischer Skalen dar. Die Amplitudenerweiterung des Phasenfeld-Kristallmodells ermöglicht es, die Kristallgittereigenschaften auf diffusen Zeitskalen zu beschreiben, indem sie sich auf kontinuierliche Felder konzentriert, die auf Längenskalen variieren, die größer als der Atomabstand sind. So ermöglicht es die Simulation großer Systeme, die noch Details des Kristallgitters beibehalten. Axel Voigt hat an der TU München studiert und promoviert. Nach einem Ausflug in die Wirtschaft war er ab 2001 Gruppenleiter am Forschungsinstitut caesar in Bonn und hat sich dort auch habilitiert. Seit 2007 ist er in Dresden an der TU als Professor tätig. Literatur und weiterführende Informationen M. Salvalaglio, A. Voigt, K. R. Elder: Closing the gap between atomic-scale lattice deformations and continuum elasticity. npj Computational Materials 5 (2019), 48 S. Praetorius, M. Salvalaglio, A. Voigt: An efficient numerical framework for the amplitude expansion of the phase-field crystal model. Modelling Simul. Mater. Sci. Eng. 27 (4) (2019), 044004 M. Salvalaglio, R. Backofen, K. R. Elder, A. Voigt: Defects at grain boundaries: a coarse-grained, three-dimensional description by the amplitude expansion of the phase-field crystal model. Phys. Rev. Materials 2 (2018), 053804 Podcasts S. Carelli, G. Thäter: Batteries, Conversation im Modellansatz Podcast, Episode 211, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2019. L. Wagner, G. Thäter: Elastoplastizität, Gespräch im Modellansatz Podcast, Folge 210, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
11/8/2019 • 33 minutes, 43 seconds
Peaked Waves
Gudrun talks to Anna Geyer. Anna is Assistant professer at TU Delft in the Mathematical Physics group at the Delft Institute of Applied Mathematics. She is interested in the behaviour of solutions to equations which model shallow water waves. The day before (04.07.2019) Anna gave a talk at the Kick-off meeting for the second funding period of the CRC Wave phenomena at the mathematics faculty in Karlsruhe, where she discussed instability of peaked periodic waves. Therefore, Gudrun asks her about the different models for waves, the meaning of stability and instability, and the mathematical tools used in her field. For shallow water flows the solitary waves are especially fascinating and interesting. Traveling waves are solutions of the form representing waves of permanent shape f that propagate at constant speed c. These waves are called solitary waves if they are localized disturbances, that is, if the wave profile f decays at infinity. If the solitary waves retain their shape and speed after interacting with other waves of the same type, we say that the solitary waves are solitons. One can ask the question if a given model equation (sometimes depending on parameters in the equation or the size of the initial conditions) allows for solitary or periodic traveling waves, and secondly whether these waves are stable or unstable. Peaked periodic waves are an interesting phenomenon because at the wave crest (the peak) they are not smooth, a situation which might lead to wave breaking. For which equations are peaked waves solutions? And how stable are they? Anna answers these questions for the reduced Ostrovsky equation, which serves as model for weakly nonlinear surface and internal waves in a rotating ocean. The reduced Ostrovsky equation is a modification of the Korteweg-de Vries equation, for which the usual linear dispersive term with a third-order derivative is replaced by a linear nonlocal integral term, representing the effect of background rotation. Peaked periodic waves of this equation are known to exist since the late 1970's. Anna presented recent results in which she answers the long standing open question whether these solutions are stable. In particular, she proved linear instability of the peaked periodic waves using semi-group theory and energy estimates. Moreover, she showed that the peaked wave is unique and that the equation does not admit Hölder continuous solutions, which implies that the reduced Ostrovsky equation does not admit cusps. Finally, it turns out that the peaked wave is also spectrally unstable. This is joint work with Dmitry Pelinovsky. For the stability analysis it is really delicate how to choose the right spaces such that their norms measure the behaviour of the solution. The Camassa-Holm equation allows for solutions with peaks which are stable with respect to certain perturbations and unstable with respect to others, and can model breaking waves. Anna studied mathematics in Vienna. Adrian Constantin attracted her to the topic of partial differential equations applied to water waves. She worked with him during her PhD which she finished in 2013. Then she worked as Postdoc at the Universitat Autònoma de Barcelona and in Vienna before she accepted a tenure track position in Delft in 2017. References A. Geyer, D.E. Pelinovsky: Spectral instability of the peaked periodic wave in the reduced Ostrovsky equations, submitted (arXiv) A. Geyer, D.E. Pelinovsky: Linear instability and uniqueness of the peaked periodic wave in the reduced Ostrovsky equation, SIAM J. Math. Analysis, 51 (2019) 1188–1208 A. Geyer, D.E. Pelinovsky: Spectral stability of periodic waves in the generalized reduced Ostrovsky equation, Lett. Math. Phys. 107(7) (2017) 1293–1314 R. Grimshaw, L. Ostrovsky, V. Shrira, et al.: Long Nonlinear Surface and Internal Gravity Waves in a Rotating Ocean, Surveys in Geophysics (1998) 19: 289. A. Constantin, W. Strauss: Stability of peakons, Commun. Pure Appl. Math. 53 (2000) 603–610. F. Natali, D.E. Pelinovsky: Instability of H1-stable peakons in the Camassa-Holm equation, submitted (arXiv) Related Podcasts X. Liao, G. Thäter: Nonhomogenous Fluids, Conversation in the Modellansatz Podcast, Episode 189, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2018. M. Lopez-Fernandez, G. Thäter: Convolution Quadrature, Conversation in the Modellansatz Podcast, Episode 133, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2017. S. Fliss, G. Thäter: Transparent Boundaries, Conversation in the Modellansatz Podcast episode 075, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. F. Sayas, G. Thäter: Acoustic scattering, Conversation in the Modellansatz Podcast episode 058, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015. E. Zuazua, G. Thäter: Waves Conversation in the Modellansatz Podcast episode 054, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2015.
10/31/2019 • 36 minutes, 19 seconds
Optimale Verladestrategie
Gudrun spricht in dieser Folge mit Maren Hattebur, Nils Rauscher und Moritz Müller über die Teilnahme von Nils und Moritz beim Wettbewerb Jugend forscht. Die beiden jungen Männer haben im Sommer 2019 ihr Abitur am Tulla-Gymnasium in Rastatt gemacht. Im Gespräch schauen sie noch einmal zurück auf den Weg, der zur Teilnahme an Jugend forscht führte und im Sommer 2018 mit der Teilnahme an der CAMMP week in Voeren (Belgien) begann. Maren hat die beiden in der ganzen Zeit begleitet. Sie ist Doktorandin in der KIT-Fakultät für Mathematik und trägt in der Arbeistgruppe Computational Science and Mathematical Methods sehr aktiv die Projekte CAMMP week und Simulierte Welten mit. Moritz und Nils hatten bis 2018 kein ausgeprägtes Interesse an mathematischen Themen und hätten sich auch eher kein technisches Studium für sich selbst vorgestellt. Die Einladung, eine Woche in einer Gruppe ein Problem aus der Praxis zu knacken, nahmen sie allerdings gern an. In ihrer Gruppe ging es um die Beladung von Lastwagen. Zusammen mit Gleichaltrigen haben sie sich einen Algorithmus überlegt, anschließend implementieren und getestet, der sicherstellt, dass vorbereitete Euor-Paletten in der passenden Reihenfolge entladen werden können. Dabei muss gewährleistet sein, dass Paletten aufeinander auch stapelbar sind. In Voeren gab es eine Lösung der Gruppe. Das Thema war aber noch nicht richtig durch. Deshalb entschlossen sich Moritz und Nils, damit noch weiter zu machen und wurden durch ein Förderstipendium des Programms Simulierte Welten dabei unterstützt. Das Ergebnis reichten sie schließlich im Wettbewerb Jugend forscht ein. Dort gibt es unterschiedliche Fachgebiete. Das Thema passte in den Bereich Arbeitswelten. Im Wettbewerb Junged forscht ist in jedem Jahr Anmeldeschluss am 30. November. Die Teilnehmend Gruppen erhalten bis Ende Dezember die Einladung zu einem Wettbewerb in ihrer Region. Im Januar reichen sie eine schriftliche Ausarbeitung ihres Projekts von maximal 15 Seiten beim zuständigen Wettbewerbsleiter ein. Am ersten Tag des Wettbewerbs bauen die Jungforscherinnen und Jungforscher ihre Stände auf, es findet ein erstes Kennenlernen mit den Organisatoren und vor allem mit den anderen statt. Am zweiten Tag kommt die Jury und schaut sich die Projekte an. Die Gruppen präsentieren und werden anschließend ausgiebig befragt. Bei der Abendveranstaltung werden bereits die Sieger verkündet. Am dritten Tag kommt die Öffentlichkeit und die Presse dazu. Außer den Siegern sind noch keine Preisträger bekannt, so dass es bei der abschließenden Feierstunde noch einmal richtig spannend wird. Moritz und Nils haben die Veranstaltung als tollen Höhepunkt erlebt. Durch die eigene Forschertätigkeit hat sich auch ihr Blick auf Mathematik und ihre Anwendungen im Alltag stark verändert. Sie würden jederzeit empfehlen, sich auf das Experiment einer CAMMP week einzulassen oder ein Projekt für Jugend forscht zu entwickeln. Literatur und weiterführende Informationen CAMMP week Förderstipendium Simulierte Welten Erfahrungsberichte CAMMP week M. Hattebuhr, K. Wohak, G. Thäter: Simulierte Welten, Gespräch im Modellansatz Podcast, Folge 179, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Erklärfilm Jugend forscht Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
10/24/2019 • 33 minutes, 31 seconds
Cancer Research
Gudrun talks with Changjing Zhuge. He is a guest in the group of Lennart Hilbert and works at the College of applied sciences and the Beijing Institute for Scientific and Engineering Computing (BISEC) at the Beijing University of Technology. He is a mathematician who is interested in system biology. In some cases he studies delay differential equations or systems of ordinary differential equations to characterize processes and interactions in the context of cancer research. The inbuilt delays originate e.g. from the modeling of hematopoietic stem cell populations. Hematopoietic stem cells give rise to other blood cells. Chemotherapy is frequently accompanied by unwished for side effects to the blood cell production due to the character of the drugs used. Often the production of white blood cells is hindered, which is called neutropenia. In an effort to circumvent that, together with chemotherapy, one treats the patient with granulocyte colony stimulating factor (G-CSF). To examine the effects of the typical periodic chemotherapy in generating neutropenia, and the corresponding response of this system to given to G-CSF Changjing and his colleagues studied relatively simple but physiologically realistic mathematical models for the hematopoietic stem cells. And these models are potential for modeling of other stem-like biosystems such as cancers. The delay in the system is related to the platelet maturation time and the differentiation rate from hematopoietic stem cells into the platelet cell. Changjing did his Bachelor in Mathematics at the Beijing University of Technology (2008) and continued with a PhD-program in Mathematics at the Zhou-Peiyuan Center for Applied Mathematics, Tsinghua University, China. He finished his PhD in 2014. During his time as PhD student he also worked for one year in Michael C Mackey's Lab at the Centre for Applied Mathematics in Bioscience and Medicine of the McGill University in Montreal (Canada). References C. Zhuge, M.C. Mackey, J. Lei: Origins of oscillation patterns in cyclical thrombocytopeniaJournal of Theoretical Biology 462,432-445, 2019. C. Zhuge, X. Sun, J. Lei: On positive solutions and the Omega limit set for a class of delay differential equations. Discrete and Continuous Dynamical Systems - Series B, 18(9), 2487~2503, 2013. C. Zhuge, M.C. Mackey, J. Lei: Neutrophil dynamics in response to chemotherapy and G-CSF Journal of Theoretical Biology 293, 111-120 2012.Podcasts L. Hilbert, G. Thäter: Zellkerne, Gespräch im Modellansatz Podcast, Folge 206, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.
10/17/2019 • 24 minutes, 6 seconds
TFP-Verfahren
Gudrun war in Dresden zu Gast am Leibniz Institut für Polymerforschung. Sie spricht dort mit Axel Spickenheuer und Lars Bittrich über deren Forschungsfeld, das Tailored-Fiber-Placement-Verfahren (TFP). Anlass des Treffens in Dresden war der Beginn einer gemeinsamen Masterarbeit. Das Institut für Polymerforschung hat - zusammen mit Vorgängerinstitutionen - eine längere Geschichte in Dresden. Seit 1950 gab es dort ein Institut für Technologie der Fasern (als Teil der Akademie der Wissenschaften der DDR). Dieses wurde 1984 zum Institut für Technolgie der Polymere und nach der Gründung des Freistaates Sachsen schließlich am 1.1. 1992 neu als Institut für Polymerforschung Dresden e.V. gegründet. Seitdem wird dort auch schon an der TFP-Technologie gearbeitet. Seit 2004 gehört das Institut der Leibniz-Gemeinschaft an. Es ist damit der anwendungsnahen Grundlagenforschung verpflichtet. Ein wichtiges Thema im Haus ist Leichtbauforschung. Die TFP-Verfahren beinhalten Verstärkung von Geweben oder Thermoplasten durch feste Fasern aus z.B. Glas, Kohlenstoff und Aramiden. Diese Verstärkung kann man so aufbringen, dass sie in allen Richtungen gleich stark wirkt (isotrop) oder aber so, dass sich sehr unterschiedliche Materialeigenschaften bei Beanspruchung in unterschiedlichen Richtungen ergeben (anisotrop). In den so entstehenden zusammengesetzten Materialien geht es darum, für die Bauteile Masse zu reduzieren, aber Steifigkeit und/oder Tragfähigkeit stark zu erhöhen. Besonderes Potential für Einsparungen hat die anisotrope Verstärkung, also die (teuren) Fasern genau so zu einzusetzen, wie es den berechneten Anforderungen von Bauteilen am besten entspricht. Das führt auf sehr unterschiedliche Fragen, die in der Forschungstätigkeit des Dresdner Instituts beantwortet werden. Sie betreffen u.a. die tatsächliche Herstellung an konkreten Maschinen, die Kommunikation zwischen Planung und Maschine, die Optimierung des Faserverlaufs im Vorfeld und die Prüfung der physikalischen Eigenschaften. Die Verstärkungsstruktur wird durch das Aufnähen einzelner sogenannter Rovings auf dem Basismaterial erzeugt. Das Grundmaterial kann eine textile Flächenstruktur (Glasgewebe, Carbongewebe, Multiaxialgelege) oder für thermoplastische Verstärkungsstrukturen ein vernähfähiges Folienmaterial sein. Die Verstärkungsstrukturen werden durch die Bewegung des Grundmaterials mit Hilfe einer CNC-Steuerung und der gleichzeitigen Fixierung des Rovings mit Hilfe des Nähkopfes gefertigt. Um eine hohe Effektivität zu erhalten, können Verstärkungsstrukturen mit bis zu 1000 Stichen pro Minute hergestellt werden. Für die Mathematik besonders interessant ist die Simulation und Optimierung der sehr komplexen Verbundstoffe. Um optimale Faseranordnungen umsetzen zu können, braucht es natürlich numerische Methoden und prozessorientierte Software, die möglichst alle Schritte der Planung und Herstellung automatisiert. Traditionell wurde oft die Natur zum Vorbild genommen, um optimale Verstärkungen - vor allem an Verzweigungen - nachzuahmen. Hier gibt es einen Verbindung nach Karlsruhe ans KIT, denn Claus Mattheck hat hier über viele Jahrzehnte als Leiter der Abteilung Biomechanik im Forschungszentrum Karlsruhe richtungsweisend gearbeitet und auch mit dem Institut für Polymerforschung kooperiert. Ein weiterer Ansatz, um gute Faserverläufe zu konstruieren ist es, die Hauptspannungsverläufe (insbesondere 1. und 2. Hauptspannung) zu berechnen und das Material entsprechend zu verstärken. Dies ist aber für die komplexen Materialien gar nicht fundiert möglich. Eine der derzeit wichtigsten Problemstellung dabei ist die hinreichend genaue Modellbildung für eine Finite Elemente Analyse (FEA). Erst dadurch lassen sich exakte Vorhersagen zum späteren Bauteilverhalten bzgl. Steifigkeits- und Festigkeitsverhalten treffen. Besonders schwierig sind dabei die Berücksichtigung der lokal variablen Dicken im FE-Modell bzw. die genaue Wiedergabe der lokalen Faserorientierung darin. Vorzeigebeispiele für die Leistungsfähigkeit der Technologie sind die Fenster des Airbus und ein sehr leichtgewichtiger Hocker (650g), der bis zu 200 kg Last tragen kann und auch noch schick aussieht. Er wurde inzwischen in vielen technischen Ausstellungen gezeigt, z.B. im Deutschen Museum München. Mit Hilfe der am Institut entwickelten Softwaretools EDOPunch und AOPS (nach der Kommerzialisierung wurden daraus die Produkte EDOpath und EDOstructure der Complex Fiber Structures GmbH) ist es nun möglich, ausgehend von einem nahezu beliebigen TFP-Stickmuster, 3D-FEA-Simulationsmodelle zu erstellen, die in einem makroskopischen Maßstab sowohl die lokale Dickenkontur (sozusagen den Querschnitt) als auch die lokale Faserorientierung entsprechend abbilden können. Erste Ergebnisse zeigen, dass sich hierdurch sehr gut das Steifigkeitsverhalten solcher variabelaxialer Faserverbundbauteile berechnen lässt. Neben dem Vorgehen zum Erstellen entsprechender Simulationsmodelle wird anhand verschiedener experimentell ermittelter Bauteilkennwerte die Leistungsfähigkeit des verwendeten Modellansatzes immer wieder demonstriert. Die Weiterentwicklung dieser Software geht über die Ziele des Instituts für Polymerforschung hinaus und wird seit März 2013 in der Ausgründung Complex Fiber Structures erledigt. Ziel ist es, allen Ingenieuren die mit Faserverbünden arbeiten, sehr einfach handhabbare Tools zur Planung und Entwicklung zur Verfügung stellen zu können. Es gibt hierfür sehr unterschiedliche typische Nutzungsfälle. Im Gespräch geht es z.B. darum, dass Löcher in klassischen Bauteilen regelmäßig zu starken Festigkeitseinbußen führen. Allerdings kann man sehr oft nicht auf Löcher im Bauteil verzichten. TFP-Lösungen können aber so umgesetzt werden, dass im Verbundmaterial die Festigkeitseinbuße durch Löcher nicht mehr vorhanden ist. Damit Ingenieure diesen Vorteil für sich nutzen können, brauchen sie aber gute Software, die ihnen solche Standardprobleme schnell zu lösen hilft, ohne sich erst in den ganzen Hintergrund einzuarbeiten. Axel Spickenheuer hat Luft-und Raumfahrttechnik an der TU Dresden studiert und arbeitet seit 2005 am Institut für Polymerforschung. Seit vielen Jahren leitet er die Gruppe für Komplexe Strukturkomponenten und hat 2014 zum Thema TFP-Verfahren promoviert. Lars Bittrich hat an der TU Dresden Physik studiert und zu Quantenchaos promoviert. Dabei hat er schon viel mit numerischen Verfahren gearbeitet. Seit Ende 2010 ist er Mitglieder von Axels Gruppe. Literatur und weiterführende Informationen L. Bittrich e.a.: Buckling optimization of composite cylinders for axial compression: A design methodology considering a variable-axial fiber layout more. Composite Structures 222 (2019) ID110928 L. Bittrich e.a.: Optimizing variable-axial fiber-reinforced composite laminates: The direct fiber path optimization concept more. Mathematical Problems in Engineering (2019) ID 8260563 A. Spickenheuer: Zur fertigungsgerechten Auslegung von Faser-Kunststoff-Verbundbauteilen für den extremen Leichtbau auf Basis des variabelaxialen Fadenablageverfahrens Tailored Fiber Placement Promotionsschrift TU Dresden, 2014. Podcasts H. Benner, G. Thäter: Formoptimierung, Gespräch im Modellansatz Podcast, Folge 212, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
10/10/2019 • 1 hour, 43 seconds
Binärströmung
In dieser Folge spricht Gudrun mit Anne Bayer und Tom Braun. Sie sind im Bachelorstudiengang Wirtschaftsmathematik bzw. Mathematik am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. Anne und Tom betrachten einen Würfel, in dem zwei Flüssigkeiten enthalten sind, die sich nicht mischen können. Konkret ist eine Tropfen von Fluid 1 ist in ein Fluid 2 eingebettet. Dadurch entsteht insbesondere eine diffuse Grenzfläche zwischen beiden, die durch mehrere physikalische Faktoren beeinflusst ist, wie z.B. die Viskosität der Flüssigkeiten oder die Größe des Tropfens. Wo die Grenzfläche verläuft ist Teil des physikalischen Problems. Grundlage des verwendeten sehr einfachen Modells ist die Oberflächenspannung. Der Tropfen hat aufgrund dieser Oberflächenspannung einen anderen Druck im Inneren als im das Fluid im außen. Dies kann mit dem Laplace-Operator modelliert und berechnet werden. Sie berechnen die im numerischen Modell vorliegende Druckdifferenz, indem der Druck im kugelförmigen Tropfen und dem Punkt am weitesten entfernt betrachtet wird (in diesem Fall den Punkt aus der linken unteren Ecke). Literatur und weiterführende Informationen A. Komrakova e.a.: Lattice Boltzmann simulations of drop deformation and breakup in shear flow International Journal of Multiphase Flow 59, 24-43, 2014. Podcasts L. Dietz, J. Jeppener, G. Thäter: Gastransport - Gespräch im Modellansatz Podcast, Folge 214, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019. A. Akboyraz, A. Castillo, G. Thäter: Poiseuillestrom - Gespräch im Modellansatz Podcast, Folge 215, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2019.
10/3/2019 • 19 minutes, 24 seconds
Ring-a-Scientist
Gudrun traf sich im August 2019 in Karlsruhe zum Gespräch mit Kerstin Göpfrich. Die beiden hatten sich im April 2019 persönlich beim Nawik Symposium 'Und jetzt Du' kennengelernt, wo Kerstin ihr Projekt Ring-a-Scientist vorgestellt hat. Dieses Projekt hat sie gemeinsam mit Karl Gödel initiiert und umgesetzt. Ring-a-Scientist wurde initial durch Wikimedia, die VolkswagenStiftung und den Stifterverband im Fellowverband Freies Wissen gefördert. Ring-a-Scientist ist ein moderner Weg, wie Wissenschaft in die Schulen kommen kann – per Videokonferenz und Live-Schalte aus dem Labor. Ring-a-Scientist möchte Wissenschaft ins Klassenzimmer bringen. Dies geschieht ohne Reisen und viel Organisationsaufwand einfach live per Videokonferenz. Die Inhalte können dabei von der Studienberatung über Diskussionsrunden mit Expertinnen und Experten bis hin zu virtuellen Laborführungen, Experimenten und Einblicken in die aktuelle Forschung reichen. Wie? www.Ring-a-Scientist.org ist eine Webplattform, über die Lehrerende und Wissenschaftler unbürokratisch Termine für ein Videotelefonat vereinbaren können. Auf der Plattform legen Wissenschaftler – vom Erstsemester zur Professorin – ein Profil an. Lehrpersonen können Wissenschaftler ihrer Wahl kontaktieren und den Inhalt des Videotelefonats abstecken. Ring-a-Scientist freut sich auf viele Anfragen von Lehrerinnen und Lehrern! Wieso? Ein Videotelefonat ist weniger zeit- und kostenaufwendig als Schulbesuche. Es lässt sich einfach und flexibel im Unterricht einsetzen und ist mit dem Tagesgeschäft in der Wissenschaft gut ver- einbar. Das soll Schul- und Laborbesuche nicht ersetzen sondern ergänzen und Schulen über das lokale Umfeld hinaus erreichen – denn Unterricht im 21. Jahrhundert verdient Technologie des 21. Jahrhunderts! Kerstin Göpfrich war zum Zeitpunkt des Gespräches Marie Skłodowska-Curie Fellow am Max-Planck-Institut für medizinische Forschung in Stuttgart. Ab dem 1. Oktober leitet sie eine Max-Planck-Forschungsgruppe in Heidelberg. Im April 2017 schloss sie ihre Promotion in Physik an der University of Cambridge (UK) ab, wo sie bei Prof. Ulrich Keyser an DNA Origami Nanoporen arbeitete. Nebenbei hat Sie für verschiedene Medien gearbeitet, darunter The Naked Scientists (BBC - Radio 5 live), Cambridge TV, Spektrum der Wissenschaft und The Huffington Post. In ihrer Forschung beschäftigt sie sich mit der Frage: Was ist Leben und könnte es auch anders sein? Anstatt das Leben, wie wir es kennen, zu kopieren, versucht sie, synthetische Zellen zu entwickeln, die nicht nur aus natürlichen Bausteinen bestehen und neue Arten der Informationsverbreitung und Replikation aufweisen. Dadurch wird es möglich sein, die Randbedingungen des Lebens zu erforschen und aus praktischer Sicht neue Schnittstellen zwischen natürlichen und synthetischen Zellen aufzubauen. Bioorthogonale synthetische Zellen werden als biokompatible aktive Sonden ("Phantomzellen") in lebenden Geweben und Organismen einsetzbar sein, die in der Lage sind, die Zellumgebung zu erfassen, zu berechnen und eine Reaktion auszuführen. Literatur und weiterführende Informationen Göpfrich, K., Gödel, K.C. Ring-a-Scientist - der direkte Draht ins Labor, Biospektrum, 2019. Göpfrich, K., Platzman, P. & Spatz, J. P. Mastering Complexity: Towards Bottom-up Construction of Multifunctional Eukaryotic Synthetic Cells. Trends in Biotechnology, 2018. Göpfrich, K., Rational Design of DNA-Based Lipid Membrane Pores. PhD Thesis, 2017. K. Göpfrich:THE BLOG - DNA Sequencing In The Palm Of Your Hand, 2017. K. Göpfrich: Übersicht ihrer populärwissenschaftlichen Artikel, Video und Audio Gudruns Profil bei Ring-a-scientist Podcasts L. Hilbert, G. Thäter: Zellkerne, Gespräch im Modellansatz Podcast, Folge 206, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.
9/12/2019 • 37 minutes, 17 seconds
Tonsysteme
Stephan Ajuvo (@ajuvo) vom damals(tm) Podcast, Damon Lee von der Hochschule für Musik und Sebastian Ritterbusch trafen sich zu Gulasch-Programmiernacht 2019 des CCC-Erfakreises Entropia e.V., die wieder im ZKM und der HfG Karlsruhe stattfand. Es geht um Musik, Mathematik und wie es so dazu kam, wie es ist. Damon Lee unterrichtet seit einem Jahr an der Hochschule für Musik und befasst sich mit Musik für Film, Theater, Medien und Videospielen. Im aktuellen Semester verwendet er Unity 3D um mit räumlicher Musik und Klängen virtuelle Räume im Gaming-Umfeld umzusetzen. Auch im Forschungsprojekt Terrain wird untersucht, in wie weit räumliche Klänge eine bessere Orientierungsfähigkeit im urbanen Umfeld unterstützen können. Die Idee zu dieser Folge entstand im Nachgang zur gemeinsamen Aufnahme von Stephan und Sebastian zum Thema Rechenschieber, da die Musik, wie wir sie kennen, auch ein Rechenproblem besitzt, und man dieses an jedem Klavier wiederfinden kann. Dazu spielte Musik auch eine wichtige Rolle in der Technikgeschichte, wie beispielsweise das Theremin und das Trautonium. Die Klaviatur eines herkömmlichen Klaviers erscheint mit den weißen und schwarzen Tasten alle Töne abzubilden, die unser gewöhnliches Tonsystem mit Noten abbilden kann. Der Ursprung dieses Tonsystems entstammt aus recht einfachen physikalischen und mathematischen Eigenschaften: Wird eine Saite halbiert und im Vergleich zu zuvor in Schwingung gebracht, so verdoppelt sich die Frequenz und wir hören den einen gleichartigen höheren Ton, der im Tonsystem auch gleich benannt wird, er ist nur um eine Oktave höher. Aus einem Kammerton a' mit 440Hz ändert sich in der Tonhöhe zu a'' mit 880Hz. Neben einer Verdopplung ergibt auch eine Verdreifachung der Frequenz einen für uns Menschen angenehmen Klang. Da aber der Ton über eine Oktave höher liegt, wird dazu der wieder um eine Oktave tiefere Ton, also der Ton mit 1,5-facher Frequenz betrachtet. Dieses Tonintervall wie beispielsweise von a' mit 440Hz zu e'' mit 660Hz ist eine (reine) Quinte. Entsprechend des Quintenzirkels werden so alle 12 unterschiedlichen Halbtöne des Notensystems innerhalb einer Oktave erreicht. Nur gibt es hier ein grundsätzliches mathematisches Problem: Gemäß des Fundamentalsatzes der Arithmetik hat jede Zahl eine eindeutige Primfaktorzerlegung. Es ist also nicht möglich mit mehreren Multiplikationen mit 2 zur gleichen Zahl zu gelangen, die durch Multiplikationen mit 3 erreicht wird. Somit kann der Quintenzirkel nicht geschlossen sein, sondern ist eigentlich eine niemals endende Quintenspirale und wir müssten unendlich viele unterschiedliche Töne statt nur zwölf in einer Oktave haben. In Zahlen ist . Nach 12 reinen Quinten erreichen wir also nicht genau den ursprünglichen Ton um 7 Oktaven höher, doch der Abstand ist nicht sehr groß. Es ist grundsätzlich unmöglich ein endliches Tonsystem auf der Basis von reinen Oktaven und reinen Quinten zu erzeugen, und es wurden unterschiedliche Strategien entwickelt, mit diesem Problem zurecht zu kommen. Wird das Problem ignoriert und nur die letzte Quinte verkleinert, damit sie auf den ursprünglichen Ton um sieben Oktaven höher trifft, so entsteht eine schlimm klingende Wolfsquinte. Auch im Cello-Bau können durch Wahl der Verhältnisse der Saiten und der Schwingungsfrequenzen des Korpus fast unspielbare Töne entstehen, diese werden Wolfston genannt. In der Musik wird die erforderliche Korrektur von Intervallen auch Komma-Anpassung genannt, die beispielsweise bei Streichinstrumenten automatisch, da hier die Töne nicht auf festen Frequenzen festgelegt sind, sondern durch die Fingerposition auf dem Griffbrett individuell gespielt wird. Bei Tasteninstrumenten müssen die Töne aber im Vorfeld vollständig in ihrer Frequenz festgelegt werden, und hier haben sich historisch verschiedene Stimmungen ergeben: Nach vielen Variationen, die immer durch die Wolfsquinte unspielbare Tonarten beinhalteten, wurde ab 1681 in der Barockzeit von Andreas Werkmeister die Wohltemperierte Stimmung eingeführt, in der zwar jede Tonart spielbar, aber jeweils individuelle Stimmungen und Charaktäre vermittelten. Diese Unterschiede sollen Johann Sebastian Bach bis 1742 zum Werk Das wohltemperierte Klavier inspiriert haben, wo er die jeweiligen Eigenheiten aller Tonarten musikalisch umsetzte. Die heute am häufigsten verwendete Gleichtstufige oder Gleichmäßige Stimmung verkleinert alle Quinten statt 1,5 auf den gleichen Faktor , so dass alle Töne auf die Frequenzen festgelegt sind. Damit sind alle Tonarten absolut gleichberechtigt gut spielbar, sie klingen aber auch alle gleich, und haben alle den gleichen kleinen Fehler. Da aber gerade bei Streichinstrumenten natürlich passendere Frequenzen gewählt werden, klingen gerade synthetisch erzeugte Streicher unrealistisch, wenn sie der exakten gleichstufigen Stimmung folgen. Während bei der Klavierstimmung die Töne durch die Spannung der Saiten eingestellt werden können, so werden metallische Orgelpfeifen mechanisch mit einem Stimmeisen in ihrer Frequenz angepasst. Die Porzellanorgel ist eine ungewöhnliche unter anderem in Meissen hergestellte Form, deren Pfeifen natürlich auch mit Luft und nicht durch Vibration, wie beim Schlaginstrument des Vibraphons klingen. György Ligeti, populär bekannt durch Filmmusiken in 2001: Odyssee im Weltraum und Eyes Wide Shut, hat sich in seinem späteren Schaffenswerk auch mit exotischeren Tonsystemen auf Basis reiner Intervalle mit Streichern befasst. Beispielsweise sollte Continuum, für Cembalo, mit Mitteltöniger Stimmung gespielt werden. Um in der herkömmlichen Notation auf der Basis von 12 Halbtönen auch feinere Tonschritte bezeichnen zu können, wurden die Zeichen Halb-Kreuz und Halb-b eingeführt, die auf die Viertelton-Musik führten. Hier stellt sich die interessante Frage, ob eine Erhöhung auf 24 Tönen pro Oktave bei reinen Intervallen sich der Fehler reduziert. Diese Frage beantwortet die Berechnung des entsprechenden Faktors aus Quinten mit dem nächsten Faktor aus Oktaven und die Berechnung des relativen Fehlers, der korrigiert werden muss. Bis 53 Quinten haben folgende Kombinationen einen Fehler von weniger als 7%: Quinten n 5 7 12 17 24 29 36 41 46 48 53 Oktaven m 3 4 7 10 14 17 21 24 27 28 31 Fehler5,1%6,8%1,4%3,8%2,8%2,5%4,2%1,1%6,6%5,6%0,2% Ein sehr primitives Tonsystem kann also mit 5 Tönen aufgestellt werden, aber offensichtlich treffen 12 Töne deutlich besser. 24 Töne ermöglichen zwar mehr Tonvielfalt, verbessern aber den Fehler nicht. Erst ein Tonsystem mit 29 Tönen würde bei gleichstufiger Stimmung einen exakteren Klang als bei 12 Tönen ermöglichen. Noch besser wäre dann nur noch ein Tonsystem mit 41 Tönen pro Oktave, eine extreme Verbesserung ergibt sich bei 51 Tönen pro Oktave bei entsprechenden Problemen beim Bau einer solchen Klaviatur. Dazu haben Tonsystemerweiterungen in Vielfachen von 12 eine höhere Kompatibilität zum herkömmlichen System, und die Nähe der besseren Tonsysteme mit 29 zu 24 und 53 zu 48 zeigt, dass die Vielfachen in der Aufführung als Näherungen zu den besseren Darstellungen betrachtet werden können. Gérard Grisey (z.B. Les espaces acoustiques) und Tristan Murail sind Vertreter der Spektralisten, die in ihren Partituren erweiterte Tonsysteme verwenden. Hier sind die Tonangaben jedoch harmonisch statt melodisch gedacht, sind also in der Aufführung entsprechend zu interpretieren. YouTube: Gérard Grisey - Vortex Temporum - Ensemble Recherche Natürlich dürfen die Töne von Instrumenten nicht nur mit ihrer Grundfrequenz betrachtet werden, sondern erst das Zusammenspiel aller Harmonischen und Obertöne in Vielfachen der Grundfrequenz machen den charakteristischen Klang eines Instruments aus. Durch eine Fourier-Analyse kann mathematisch ein solches Frequenzspektrum eines Geräusches oder eines Tons berechnet werden. Oft ist hier eine überraschende Anzahl von Obertönen zu sehen, die von Menschen nicht unabhängig vom Grundton gehört werden. In der Ottoman Musik finden sich oft für west-europäische Ohren ungewohnte Harmonien, die aus ihrer langen orientalischen Geschichte andere Formen der Komposition und Tonsysteme entwickelt haben. In der Audioelektronik wurden ab etwa 1912 Röhren für Verstärker und insbesondere in der Musik verwendet, und die exakte Bauform der Bleche und Elektroden hatte deutliche Auswirkungen auf die Übertragung und Erzeugung von Spektren und Audiowellen durch Verzerrungen. Die Hammondorgel war eine sehr beliebte elektromechanische Orgel, wo anstatt von Pfeifen rotierende Zahnräder vor elektrischen Abnehmern die Töne erzeugten. Mit Hilfe von Röhren wurde in der DDR versucht, Silbermann-Orgeln als elektronische Orgeln auf Basis des Prinzips der Hammondorgel nachzubilden. Die Klangfarben der Silbermann-Orgeln wurden hier durch elektronische Rekonstruktion der Obertöne nachempfunden. Was als angenehmer Klang empfunden wird, ist eine persönliche Sache. Jedoch ist auffällig, dass der harmonische Grundklang eines Dur-Akkords einen sehr mathematischen Hintergrund hat: Die Quinte integriert den Faktor 3, bzw. 3/2, also 1.5, die große Terz den Faktor 5, bzw. 5/4 also 1.25, und die Quarte zur nächsten Oktave mit Faktor 2 ist der Faktor 4/3. Ein Zusammenspiel von so kleinen Faktoren wird bei kleinem kleinsten gemeinsamen Vielfachen wieder periodisch und ergibt einen gleichmäßigen Klang. Das persönliche Empfinden kann physiologisch mit dem Aufbau der Hörschnecke zusammenhängen, wird aber auch stark durch Erfahrungen geprägt. Musik besteht aber nicht aus einem Klang, sondern einer zeitlichen Abfolge von Konsonanz und Dissonanz, und das gilt nicht nur für neue Veröffentlichungen alter Meister von Wolfgang Rehm. So spielt Ornette Coleman mit den Erwartungen der Hörenden bis ins Chaos. YouTube: Ornette Coleman Solo - Rare! Im Google-Doodle zu Ehren von Johann Sebastian Bach hingegen versucht aus eine Vorgabe mit einem neuronalen Netz gerade die erwartete Vervollständigung im Stil von Bach zu komponieren. Eine Regelmäßigkeit oder Überraschung in der Musik kann auch im Sinne eines Informationsgehalts interpretiert werden: Sehr regelmäßige Formen sind vorhersagbar und enthalten wenig Information, die unerwartete Wendung hingegen trägt viel Information. Die als algorithmischen Komposition bezeichneten Werkzeuge werden in vielen Programmen und Geräten angeboten, beispielsweise als automatische Begleitung. Die Ergebnisse erscheinen aber nicht sehr kreativ. Bei der Verwendung von künstlichen neuronalen Netzen für die Komposition ist es leider nicht möglich im Nachhinein zu analysieren, warum und wie bestimmte Passagen erzeugt wurden: Auch wenn sie mit existierenden Beispielen mit Backpropagation trainiert wurden, arbeiten dann als Black Box, aus der nicht direkt abstrakte Entscheidungsgrundlagen reproduziert werden können. Alles Lernen setzt voraus, dass es ein Maß für die Güte gibt, was ist demnach die Qualität einer Komposition, was unterscheidet Kreativität vom Zufall und wo stimmt dies zwischen unterschiedlichen Menschen überein? Wie an prähistorischen Instrumenten zu erkennen, ist Klangerzeugung und Musik mit der Stimmbildung eng mit der Evolution des Menschen verknüpft. Recht spät entstanden Techniken zur Kodifizierung von Tonfolgen, wie beispielsweise in der Gregorianik. Es ist anzunehmen, dass der gesellschaftliche Einfluss auf die Kompositionen ihrer Zeit sehr groß war, und es jeweils auch besondere Auswirkungen wie die Blue Notes gegeben hat. Heute wird Komposition in vielen Schritten gelehrt: Angefangen von der Musiktheorie, Erlernen von Instrumenten und Musikgeschichte wird dann in Kompositionstechniken unterschiedlicher Musikepochen eingeführt. Ausgehend von den Techniken von Josquin Desprez im 15. Jahrhundert zur Verwendung des Kontrapunkt im 16. Jahrhundert, oder wie Johann Sebastian Bach den Kontrapunkt im 18. Jahrhundert nutzte. In den Notenblättern von Ludwig van Beethoven ist zu erkennen, wie er von Joseph Haydn das Komponieren auf Basis von Kontrapunkten erlernte, und auch heute mit seinen inzwischen vom Betthoven-Haus umfangreich digitalisierte Werk die Musikforschung begeistert. Ein Lehrkanon kann sich wie Kompositionstechniken über die Zeit ändern, so wie in der Mathematik früher das Riemannsche Integral Standard war, so sehen wir inzwischen den Übergang zum mächtigeren und der Wirklichkeit näheren Integralbegriff nach Lebesgue. So wie heute häufiger der neuere Begriff zum Einsatz kommt, so ist es sinnvoll und gut, auch frühere Techniken, wie auch frühere Kompositionstechniken, zu kennen und daraus lernen zu können. Im Berufsbild einer Komponistin oder eines Komponisten ist es heute meisstens nicht so, dass der Kreativität freien Lauf gelassen wird, sondern die Arbeit erfolgt in interdisziplinärer Zusammenarbeit in einem Team. Besonders für Videospielmusik oder Filmmusik wird die Komposition auf besondere Situationen hin entwickelt und erarbeitet. Wie Kreativität, Teamwork, Künstliche Intelligenz und Programmieren zu neuen Lösungen zusammenwirken kann, war auf der Gulaschprogrammiernacht auch in der Projektion der Schlangenprogrammiernacht zu sehen, wo verschiedene Programme als Schlangen in einer virtuellen Welt miteinander lebten. Der spielerische Umgang mit Algorithmen wie bei Schere, Stein, Papier führt schnell auf Spieltheorie und Herausforderungen im Hochfrequenzhandel. Literatur und weiterführende Informationen C.-Z. A. Huang, C. Hawthorne, A. Roberts, M. Dinculescu, J. Wexler, L. Hong, J. Howcroft: The Bach Doodle: Approachable music composition with machine learning at scale, ISMIR 2019. U. Peil: Die chromatische Tonleiter - Mathematik und Physik, Jahrbuch der Braunschweigischen Wissenschaftlichen Gesellschaft, 2012. M. Schönewolf: Der Wolf in der Musik. Podcasts U. Häse, S. Ajuvo: Theremin, Folge 56 im damals(tm) Podcast, 2018. N. Ranosch, G. Thäter: Klavierstimmung, Gespräch im Modellansatz Podcast, Folge 67, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. P. Modler, S. Ritterbusch: Raumklang, Folge 8 im Podcast Neues Terrain, 2019. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, Gespräch im damals(tm) und Modellansatz Podcast, Folge 184, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Brill, T. Pritlove: Das Ohr, CRE: Technik, Kultur, Gesellschaft, Folge 206, 2014. C. Conradi: Der erste letzte Ton, Systemfehler Podcast, Folge 26, 12.4.2018. C. Conradi: Elektronische Orgel made in DDR, Zeitfragen, Deutschlandfunk Kultur, 12.6.2019. G. Follmer, H. Klein: WR051 Ortsgespräch, WRINT: Wer redet ist nicht tot, Folge 51, 2012. Audiospuren Tonbeispiele von D. Lee und S. Ritterbusch MuWi: C-g pythagoräischer Wolf, CC-BY-SA, 2007. Mdd4696: WolfTone, Public Domain, 2005. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering D. Lee, S. Ajuvo, S. Ritterbusch: Tonsysteme, Gespräch im Modellansatz Podcast, Folge 216, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/tonsysteme GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
9/5/2019 • 1 hour, 2 minutes, 48 seconds
Poiseuillestrom
In dieser Folge spricht Gudrun mit Ayca Akboyraz und Alejandro Castillo. Beide sind im Masterstudiengang Chemieingenieurwesen bzw. Bioingenieurwesen am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Ayca stammt aus der Türkei und Alejandro ist in Mexico aufgewachsen. Beide haben in ihren Heimatländern deutsche Schulen besucht. Anschließend haben sie sich jeweils um ein Studium in Deutschland beworben. Ayca hatte sich zunächst für Wirtschaftsingenieurwesen entschieden, hat aber nach einiger Zeit gemerkt, dass ihr Chemieingenieurwesen viel mehr liegt. Das Projektorientierte Softwarepraktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. In der klassischen Theorie der Strömungsmechanik werden auf der Grundlage der Erhaltung von Masse, Impuls und Energie und unter berücksichtigung typischer Materialeigenschaften die Navier-Stokes-Gleichungen als Modell für das Strömungsverhalten von z.B. Wasser hergeleitet. Die beiden unbekannten Größen in diesem System partieller Differentialgleichungen sind das Geschwindigkeitsfeld und der Druckgradient. Wenn geeigneten Rand- und Anfangsbedingungen für die Geschwindigkeit vorgeschrieben werden, liegt im Prinzip die Lösung des Gleichungssystem fest. Sie kann aber in der Regel nur numerisch angenähert berechnet werden. Eine wichtige Ausnahme ist die Strömung durch einen Zylinder mit kreisförmigem Querschnitt. Wenn am Rand des Zylinders als Randbedingung vorgeschrieben wird, dass dort das Fluid anhaftet, also die Geschwindigkeit ganz am Rand Null ist, dann stellt sich eine zeitlich unveränderliche (stationäre) Strömung ein, die am Rand des Zylinders still steht und in der Mitte am schnellsten ist. Der Verlauf zwischen diesen beiden Extremen entspricht genau dem einer Parabel. Diese Lösung heißt Poiseuille-Strömung. Der Durchfluss ergibt sich dann aus dem Druckgradienten. Wenn der Querschnitt des Kanals nicht genau kreisförmig ist, lässt sich das Prinzip noch übertragen, aber in der Regel ist die Lösung dann nicht mehr analytisch berechenbar. Die Poiseuille-Strömung ist ein häufiges Test- oder Benchmark-Problem in der numerischen Strömungsmechanik, zumal diese Strömungskonfiguration einer der wenigen Fälle der Navier-Stokes-Gleichungen ist, die analytisch gelöst werden können. Der Sinn des Tests besteht darin, zunächst sicherzustellen, dass die Berechnung mit Hilfe von OpenLB, eine gewisse Genauigkeit aufweist. Zweitens wird die Genauigkeit der Methode überprüft, indem analysiert wird, wie der numerische Fehler mit der Gitterverfeinerung skaliert. Ayca und Alejandro haben in ihrem Projekt diesen Benchmark vollzogen und dafür Simulationen im 2D und 3D Fall mit verschiedenen Randbedingungen, die in der Lattice Boltzmann Methode vorkommen (und in OpenLB implementiert vorliegen), und Gitterverfeinerungen mit Auflösung von 25, 50, 75, 100 Unterteilungen durchgeführt. Obwohl die Randbedingungen in numerischen Verfahren die gleichen grundlegenden Ziele wie im analytischen Fall haben, entwickeln sie sich entlang konzeptionell degenerativer Linien. Während analytische Randbedingungen die zugehörige Lösung aus einer Schar von zulässigen Lösungen der Gleichungen auswählen, wirken die Randbedingungen im Lattice Boltzmann Modell dynamisch mit. Sie sind ein Teil des Lösungsprozesses, der für die Änderung des Systemzustands in Richtung der Lösung zuständig ist. Eine der häufigsten Ursachen für die Divergenz der numerischen Lösung ist die falsche Umsetzung von Randbedingungen. Daher ist es für die Genauigkeit und Konvergenz sehr wichtig, dass die geeigneten Randbedingungen für die untersuchte Geometrie und den Strömungsfall ausgewählt werden. Es gibt eine große Familie Randbedingungen, die für die Lattice Boltzmann Methode entwickelt wurden. Für das Praktikum liegt der Fokus für die Wand auf den Randbedingungen "bounce-back" (Haftbedingung), "local", "interpolated" und "bouzidi". Alle genannten Randbedingungen erzeugen ein parabolisches Strömungsprofil passend zur analytischer Lösung. Unterschiede zeigen sich darin, wie groß die numerische Fehler ist, und in welchem Maß sich der numerische Fehler durch Gitterverfeinerung reduzieren lässt. Der graphische Vergleich der Simultionsergebnisse mit der analytischen Lösung hat gezeigt, dass bouzidi Randbedingung den kleinsten numerischen Fehler und die höchste Konvergenzordnung für den 3D-Fall erzeugt, während local und interpolated Randbedingungen für den 2D-Fall bessere Ergebnisse liefern. Zu beachten ist aber, dass mit erhöhter Gitterverfeinerung die Unterschiede zwischen diesen Randbedingungen verschwinden. Bei der Auswahl der Randbedingung sollte dementsprechend ein Kompromiss zwischen Aufwand und Güte der Lösung gefunden werden. Literatur und weiterführende Informationen T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. M. Portinari: 2D and 3D Verification and Validation of the Lattice Boltzmann Method. Master Thesis, Montréal 2015. C.J. Amick: Steady solutions of the Navier-Stokes equations in unbounded channels and pipes. Ann. Scuola Norm. Sup. Pisa Cl. Sci. (4), 4, 473–513 (1977). A. Akboyraz und A. Castillo, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts L. Dietz, J. Jeppener, G. Thäter: Flache Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 213, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
8/15/2019 • 47 minutes, 10 seconds
Gastransport
In dieser Folge spricht Gudrun mit Larissa Dietz und Jonathan Jeppener. Beide sind im Masterstudiengang Verfahrenstechnik am KIT eingeschrieben und haben 2019 das Projektorientierte Softwarepraktikum in Gudruns Arbeitsgruppe absolviert. Das Gespräch dreht sich um ihre Erfahrungen in dieser Lehrveranstaltung. Das Praktikum wurde 2010 als forschungsnaher Lernort konzipiert. Studierende unterschiedlicher Studiengänge arbeiten dort ein Semester lang an konkreten Strömungssimulationen. Es wird regelmäßig im Sommersemester angeboten. Seit 2014 liegt als Programmiersprache die Open Source Software OpenLB zugrunde, die ständig u.a. in der Karlsruher Lattice Boltzmann Research Group (LBRG) weiter entwickelt wird. Außerdem wird das Praktikum seit 2012 vom Land Baden-Württemberg gefördert als eine Möglichkeit für Studierende, sich im Studium schon an Forschung zu beteiligen. Konkret läuft das Praktikum etwa folgendermaßen ab: Die Studierenden erhalten eine theoretische Einführung in Strömungsmodelle und die Idee von Lattice-Boltzmann-Methoden und finden sich für ein einführendes kleines Projekt in Zweiergruppen zusammen. Anschließend wählen sie aus einem Katalog eine Frage aus, die sie bis zum Ende des Semesters mit Hilfe von Computersimulationen gemeinsam beantworten. Diese Fragen sind Teile von Forschungsthemen der Gruppe, z.B. aus Promotionsprojekten oder Drittmittelforschung. Während der Projektphase werden die Studierenden von dem Doktoranden/der Doktorandin der Gruppe, die die jeweilige Frage gestellt haben, betreut. Am Ende des Semesters werden die Ergebnisse in Vorträgen vorgestellt und diskutiert. Hier ist die ganze Arbeitsgruppe beteiligt. In einer Ausarbeitung werden außerdem die Modellbildung, die Umsetzung in OpenLB und die konkreten Simulationsergebnisse ausführlich dargelegt und in den aktuellen Forschungsstand eingeordnet. Diese Ausarbeitung wird benotet. Die Veranstaltung wird mit 4 ECTS angerechnet. Das Projekt von Larissa und Jonathan betrachtete den Stofftransport von CO2-Gas in flachen Photobioreaktoren. Mit ihrer großen Oberfläche erlauben sie viel einfallendes Licht. Algenzucht im industriellen Maßstab ist unerlässlich, um die weltweite Nachfrage nach schnell nachwachsender Nahrung und erneuerbaren Energiequellen zu befriedigen. Derzeit nutzen die meisten Produzenten kosteneffiziente und einfach zu bedienende offene Teiche. Die Nachfrage nach gut steuerbaren geschlossenen Photobioreaktoren steigt durch die erhöhte Effizienz der gut einstellbaren Reaktorbedingungen. Weitere Vorteile gegenüber offenen Reaktoren sind ein geringerer CO2- und Wasserverlust und eine größere Vielfalt an kultivierbaren Arten. Für ein optimales Algenwachstum müssen die regulierende Flüssigkeitsdynamik, der Lichttransfer, biochemische Reaktionen und deren gegenseitige Wechselwirkung optimiert werden. Die Untersuchung dieser Parameter mit Hilfe gekoppelter numerischer Simulationen vermeidet teure Experimente und trägt somit zur Verbesserung geschlossener Photobioreaktoren bei. Larissa und Jonathan beschränkten sich für ihr Projekt auf die Modellierung des Stofftransports aller Komponenten und den Lichteinfall. Konkret ergeben sich dabei eine Advektions-Diffusions-Gleichung für den Gastransport und die Navier-Stokes Gleichungen für das Fluid. Die Photosynthese für CO2-Umsatz wurde daran als Quelle gekoppelt. Aufgrund der hohen Parallelisierbarkeit und der Einfachheit der Berechnungsgitterkopplungen ist die Lattice-Boltzmann-Methode (LBM) geeignet, dieses System von interagierenden Differentialgleichungen zu lösen, die Fluidströmung, Stofftransport und Strahlungsfeld beschreiben. Der Bericht von Larissa und Jonathan schlägt stabile Diffusionsparameter und eine Betriebslichtkopplung vor, die sie in ihrer Projektarbeit ermittelt haben. Der von ihnen betrachtete Testfall basiert auf der Simulation der Partikelströmung durch Trunk et al. (Quelle unten). Die beiden mussten außerdem geeignete Randbedingungen finden. Die von ihnen gefundenen Simulationsparameter gewährleisten eine stabile Simulation. Literatur und weiterführende Informationen E. Sierra e.a.: Characterization of a flat plate photobioreactor for the production of microalgae. Chemical Engineering Journal, 138:136–147, 03 2008. R. Trunk e.a.: Inertial dilute particulate fluid flow simulations with an euler–euler lattice boltzmann method. Journal of Computational Science, 17:438–445, 2016. T. Krüger e.a.: The Lattice Boltzmann Method. Graduate Texts in Physics. Springer, 2017. C. Posten and R. Rosello-Sastre: Microalgae Reactors. American Cancer Society, 2011. L. Dietz und J. Jeppener: Simulation of CO2 Distribution in Photobioreactors with the Lattice Boltzmann Method, Ausarbeitung Softwarepraktikum 2019. M.J. Krause e.a.: OpenLB Release 1.3: Open Source Lattice Boltzmann Code. Podcasts J. Kolbe, G. Thäter: Photobioreaktoren - Gespräch im Modellansatz Podcast, Folge 065, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT) 2015.
8/8/2019 • 29 minutes, 19 seconds
GAMM Juniors
Gudrun hat sich Ende Mai 2019 in Mannheim mit Kerstin Lux und Benjamin Unger verabredet, um mit ihnen über ihre Erfahrungen als GAMM Junioren zu sprechen. Benjamin ist aktuell Sprecher dieses Nachwuchsgremiums der Gesellschaft für Angewandte Mathematik und Mechanik (kurz GAMM). Kerstin wurde Ende 2018 als GAMM Juniorin vorgeschlagen und ist jetzt das erste Jahr dabei. Gudrun und Kerstin hatten sich im März 2019 in Bonn bei einer Konferenz über Optimierung kennengelernt und das Podcastgespräch verabredet. Kerstin ist zur Zeit Doktorandin in der Arbeitsgruppe von Simone Göttlich an der Uni in Mannheim, weshalb sich Mannheim als guter Treffpunkt für ein ruhiges Gespräch anbot. Etwas später am gleichen Tag wurde auch das Podcastgespräch mit Simone Göttlich geführt. Die GAMM sagt über das Gremium: "GAMM-Junioren sind junge NachwuchswissenschaftlerInnen und Mitglieder der GAMM, die für die Jahre 2012 bis 2014 erstmals aus einer Reihe an Vorschlägen ernannt wurden. In der Hauptversammlung der GAMM im Rahmen der Jahrestagung 2011 in Graz wurde die Nominierung junger Nachwuchswissenschaftler beschlossen, die sich durch herausragende Leistungen in Diplom- und/oder Doktorarbeiten auf dem Gebiet der Angewandten Mathematik oder Mechanik auszeichnen. Ende 2011 wurden daraufhin die ersten 10 GAMM-Junioren nominiert, wobei eine Vorauswahl auf Basis von Vorschlägen durch die Hochschulvertreter der GAMM getroffen wurde. In jedem Jahr werden 10 weitere GAMM-Junioren ernannt, so dass die Gruppe nach einer Anlaufphase von drei Jahren auf 30 Personen angewachsen sein wird. Nach drei Jahren endet automatisch die Mitgliedschaft als GAMM-Junior. Während dieser Zeit sind die GAMM-Junioren beitragsbefreit. Mittels der kostenfreien GAMM-Mitgliedschaft und der dynamischen personellen Zusammensetzung der Gruppe soll eine zusätzliche finanzielle und ideelle Förderung von Nachwuchswissenschaftlern erreicht werden. Durch die Überschneidung der Amtszeit der Mitglieder können diese ihr fachliches und organisatorisches Wissen an die nachfolgenden Generationen der GAMM Juniors weitergeben." Die Rolle GAMM-Junior wird also als Preis für Studierende, Doktoranden und Post-Doktoranden verliehen und beinhaltet eine kostenlose Mitgliedschaft in der GAMM für drei Jahre. Kerstin und Benjamin erleben es als lebendiges Netzwerk von gleichgesinnten, die voneinander sowohl fachlich als auch darüber hinaus lernen und die sich gegenseitig unterstützen. Die GAMM vertritt Interessen der angewandten Mathematik und Mechanik vor allem auf europäischer und deutscher Ebene. Kerstin und Benjamin erleben insbesondere die Jahrestagungen als Familientreffen. Die Forschungsthemen sind oft Disziplinen übergreifend und die GAMM ermöglicht es, eine gemeinsame Sprache zu erarbeiten zwischen Mathematik und Mechanik. Die GAMM gibt drei Zeitschriften heraus: die GAMM-Mitteilungen, die ZAMM und die PAMM (Proceedings der Jahrestagung). Natürlich sind die Jahrestagungen stets offen für nicht-Mitglieder. Neben den GAMM-Junioren gibt es auch GAMM Nachwuchsgruppen an Universitäten in Augsburg, Berlin, Chemnitz, Dortmund, Hamburg, Ulm. Im Rahmen der Jahrestagung der GAMM gibt es inzwischen schon traditionelle Beiträge der 30 jungen Leute. Z.B. das YAMM-lunch (Young Academics meet mentors) für den nichtfachlichen Austausch mit Mentoren, eine Postersession aus Beiträgen der GAMM Junioren, wo sich auch Alumni (also ehemalige GAMM-Junioren) einfinden, um zu sehen, wie der Staffelstab weitergetragen wird und ein Treffen am Rande der Jahrestagung am Freitagnachmittag. Darüber hinaus gibt es auch jedes Jahr ein Herbsttreffen für den Forschungsaustausch und die Planung eigener Aktivitäten. Bewährt haben sich z.B. Sommerschulen (sogenannte SAMM) zu bestimmten Themen, die dann offen für alle Interessierten sind. Im Moment arbeiten die Junioren daran, auch einen Hauptvortrag auf der nächsten GAMM Jahrestagung durch eine Sommerschule vorzubereiten, um den Stoff für junge Forschende besser zu erschließen. Ein weiteres Abenteuer für die GAMM-Junioren war die Gründung des Journals GAMMAS für Studierende und deren Forschungsergebnisse. Es zeigte sich, dass die Gründung ohne Verlag im Hintergrund ein aufwändiger Prozess war. Es braucht eine Plattform, auf der Beiträge strukturiert eingereicht werden können und wo der Peer-Review Prozess ablaufen kann. Man muss auch automatisch generierte E-Mails für die Stufen des Veröffentlichungs-Prozesses formulieren. Als Grundlage konnte das Open Journal System dienen. Außerdem gibt es Unterstützung durch Universität in Chemnitz - z.B. durch Bereitstelung des Servers. Das Editorial Board besteht aus den Sprechern der GAMM Junioren, die Gutachten werden von den 30 GAMM Junioren erstellt. Darüber hinaus fungiert Prof. Dr. Martin Stoll als Chief Editor. Vorgesehen sind drei Formate: kurze sogenannte Technical reports, "normale" Artikel und Arbeiten mit didaktischem Inhalt (educational articles). Bis ein Jahr nach Abschluss des Masters sind Personen berechtigt, ihre Arbeiten für die ersten zwei Formate einzureichen. Didaktische Arbeiten können auch von Lehrenden aller Ausbildungsstufen eingereicht werden.Thematisch ist GAMMAS offen für Forschungsbeiträge aus allen in der GAMM vertretenen Bereichen. Wichtig ist es vor allem, wissenschaftlich sauber zu arbeiten. Explizit wird auch die Veröffentlichung von negativen Resultaten ermöglicht. Benjamin hat in Karlsruhe seine Bachelorarbeit geschrieben (in der gleichen Arbeitsgruppe, in der auch Gudrun tätig war). Anschließend hat er während eines Jahres an der Virginia Tech in den USA einen (eigentlich zweijährigen) Masterstudiengang Mathematik abgeschlossen. Das war im Rahmen eines Partnerschaftsprogrammes der Uni in Karlsruhe mit der Virginia Tech möglich. Zur Zeit arbeitet er an der TU Berlin an einer mathematischen Promotion im Thema "Delay differential-algebraic equations" in der Arbeitsgruppe von Volker Mehrmann. Kerstin hat ihren Bachelor und Master in Wirtschaftsmathematik an der Uni in Mannheim abgeschlossen inklusive eines Auslandssemesters an der Université Nice Sophia Antipolis in Frankreich. Nun arbeitet sie als Doktorandin in der AG wissenschaftliches Rechnen zu Methoden der optimalen Einspeisung in Versorgungssysteme unter Berücksichtigung unsicherer Nachfrage. Literatur und weiterführende Informationen D. Kern, M. Bartelt und B. Unger: How to write an article for GAMMAS and a longer title, GAMM Archive for Students, Vol. 1, 2019, pp. 1-5. Wie wird ein Artikel bei GAMMAS eingereicht? GAMM Wikipedia. Podcasts S. Göttlich, G. Thäter: Verkehrsoptimierung, Gespräch im Modellansatz Podcast, Folge 209, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
8/1/2019 • 1 hour, 4 seconds
Formoptimierung
Gudrun spricht mit Henrieke Benner über deren Masterarbeit "Adaption and Implementation of Conventional Mesh Smoothing Techniques for the Applicability in the Industrial Process of Automated Shape Optimization", die in Zusammenarbeit von Henrieke und Gudrun mit der Firma Dassault entstanden ist. Unser Leben wird bestimmt durch industriell hergestellte Dinge. Im Alltag nutzen wir zum Beispiel Toaster, Waschmaschinen, Fernseher und Smartphones. Fahrräder, Autos, Züge und Flugzeuge transportieren uns und wir denken wenig darüber nach, wie es dazu kam, dass sie genau diese Form und das gewählte Material haben, solange alles funktioniert. Für die Industrie, die all diese Gegenstände baut, zerfällt der Prozess der Entwicklung neuer Produkte in viele Entscheidungen über Form und Material einzelner Bauteile. Traditionell wurde hier verändert und ausprobiert, aber seit einigen Jahrzehnten sind Computer eine große Hilfe. Mit Ihnen können Bilder von noch nicht existierenden Produkten erschafft werden, die sich diese von allen Seiten, auch von innen und in Bewegung darstellen, mit Hilfe von Simulationsprogrammen Experimente zur Qualität gemacht werden, bestmögliche Formen gefunden werden. In der Masterarbeit geht es um die Optimierung der Form von Objekten am Computer - schnell und möglichst automatisch. Es liegt in der Natur der Aufgabe, dass hier mehrere Wissensfelder zusammentreffen: mechanische Modelle, Computer Strukturen und wie man dort beispielsweise Modelle von Objekten abbilden kann, Optimierungsmethoden, numerische Verfahren. Als Rahmen dient für Arbeit das Strukturoptimierungsprogrammpaket TOSCA, das von Dassault Systèmes am Standort in Karlsruhe (weiter)entwickelt wird und weltweit als Software-Tool, eingebunden in Simulationsschleifen, genutzt wird, um Bauteile zu optimieren. Für die Numerik werden Finite Elemente Verfahren genutzt. Grundlage einer jeden Strukturoptimierung ist ein mathematisches Optimierungsproblem unter Nebenbedingungen. Dazu werden eine Zielgröße und mehrere Nebenbedingungen definiert. Die Zielgröße ist dabei abhängig von zu bestimmenden Variablen, die als Unbekannte oder Optimierungsparameter bezeichnet werden. Die Nebenbedingungen sind Bedingungen an die Variablen, die erfüllt sein müssen, damit die Löung ”gültig“ ist. Das Ziel der Optimierung ist nun die Minimierung der Zielgröße unter Einhaltung der Nebenbedingungen. Um das Problem zu lösen, gibt es eine Bandbreite verschiedener Löungsmöglichkeiten, jeweils zugeschnitten auf das genaue Problem. Alle Löser bzw. Minimierungsprobleme haben jedoch gemein, dass sowohl die Konvexität der Zielfunktion als auch die Konvexität des Designgebiets von fundamentaler Bedeutung für die Lösbarkeit des Problems sind. Wenden wir uns nun dem Gebiet der Strukturoptimierung zu, so besteht anfangs zunächst die Hüde, ein mechanisches Problem mit Hilfe von Computer-Aided-Design Software (CAD) auszudrücken. Um die Belastungen des Bauteils zu berechnen, nutzt man anschließend Finite-Element-Analysis Software (FEA). Das Strukturoptimierungspaket TOSCA bietet anschließend mehrere Möglichkeiten zur Optimierung an. Relevant ist für das vorliegende Problem jedoch nur die Formoptimierung. Sie setzt ihre Ziel- und Restriktionsfunktionen aus Steifigkeit, Volumen, Verschiebung, inneren Kräften und Widerstandsmoment zusammen. Um eine Formoptimierung zu starten, muss zunächst vom Nutzer eine Triangulierung zur Verfügung gestellt werden, mit der die Werte der Ziel und Restriktionsfunktion berechnet werden. Während der Optimierung werden die Positionen der Oberflächenknoten variiert. Beispielsweise wird Material an Stellen hoher Spannung hinzugefügt und an Stellen niedriger Spannung entfernt. Problematisch an der Formoptimierung ist, dass sich die Qualität der finiten Elemente durch die Bewegung der Oberflächenknoten verändert. Modifiziert man nur die Oberflächenknoten, so entsteht ein unregelmäßiges Netz, welches keine gleichmäßigen finiten Elemente enthält oder schlimmstenfalls keine gültige Zerlegung der modifizierten Komponente ist. Die auf der ungültigen Triangulierten durchgeführten Berechnungen der Zielgrößen sind daher nicht mehr zuverlässig. Abhilfe kann nur geschaffen werden, wenn das Netz nach jedem Iterationschritt geglättet wird. Im Rahmen von Henriekes Arbeit werden zwei Ansätze zur Netzglättung implementiert, diskutiert und miteinander verglichen: Glättung durch den Laplace Operator und Qualitätsmaße für das Finite Elemente Gitter. Die Anwendung des Laplace Operators ist theoretisch die fundiertere Variante, aber in der numerischen Umsetzung sehr aufwändig. Literatur und weiterführende Informationen M.M. Selim; R.P. Koomullil: Mesh Deformation Approaches - A Survey. Journal of Physical Mathematics, 7, 2016. http://dx.doi.org/10.4172/2090-0902.1000181 C. Dai, H.-L. Liu, L. Dong: A comparison of objective functions of optimization-based smoothing algorithm for tetrahedral mesh improvement. Journal of theoretical and applied mechanics, 52(1):151–163, 2014. L. Harzheim. Strukturoptimierung: Grundlagen und Anwendungen. Deutsch, 2008. David A. Field: Laplacian Smoothing and Delaunay Triangulations. Communications in Applied Numerical Methods, 4:709 – 712, 1988. Podcasts M. An, G. Thäter: Topologieoptimierung, Gespräch im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. G. Thäter, H. Benner: Fußgänger, Gespräch im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015
7/18/2019 • 23 minutes, 24 seconds
Batteries
In June 2019 Gudrun talked with Serena Carelli. Serena is member of the Research Training Group (RTG) Simet, which is based in Karlsruhe, Ulm and Offenburg. It started its work in 2017 and Gudrun is associated postdoc therein. The aim of that graduate school is to work on the better understanding of Lithium-ion batteries. For that it covers all scales, namley from micro (particles), meso (electrodes as pairs) to macro (cell) and involves scientists from chemistry, chemical engineering, material sciences, electro engineering, physics and mathematics. The group covers the experimental side as well as modeling and computer simulations. Serena is one of the PhD-students of the program. She is based in Offenburg in the group of Wolfgang Bessler (the deputy speaker of the RTG). Her research focusses on End-of-life prediction of a lithium-ion battery cell by studying the mechanistic ageing models of the graphite electrode among other things. Mathematical modelling and numerical simulation have become standard techniques in Li-ion battery research and development, with the purpose of studying the issues of batteries, including performance and ageing, and consequently increasing the model-based predictability of life expectancy. Serena and others work on an electrochemical model of a graphite-based lithium-ion cell that includes combined ageing mechanisms: Electrochemical formation of the solid electrolyte interphase (SEI) at the anode, breaking of the SEI due to mechanical stress from volume changes of the graphite particles, causing accelerated SEI growth, gas formation and dry-out of the electrodes, percolation theory for describing the loss of contact of graphite particles to the liquid electrolyte, formation of reversible and irreversible Li plating. The electrochemistry is coupled to a multi-scale heat and mass transport model based on a pseudo-3D approach. A time-upscaling methodology is developed that allows to simulate large time spans (thousands of operating hours). The combined modeling and simulation framework is able to predict calendaric and cyclic ageing up to the end of life of the battery cells. The results show a qualitative agreement with ageing behavior known from experimental literature. Serena has a Bachelor in Chemistry and a Master's in Forensic Chemistry from the University of Torino. She worked in Spain, the Politécnico de Torino and in Greece (there she was Marie Curie fellow at the Foundation for Research and Technology - Hellas) before she decided to spend time in Australia and India. References Serena's Linked in site A. Latz & J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. T. Seger: Elliptic-Parabolic Systems with Applications to Lithium-Ion Battery Models, Doktorarbeit Universität Konstanz, 2013. M. Kespe & H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. J.-M. Tarascon & M. Armand: Issues and challenges facing rechargeable lithium batteries, Nature 414 359-367, 2001. W.G. Bessler: Elektrische Energiespeicherung mit Batterien und Brennstoffzellen, Forschung im Fokus, Hochschule Offenburg (2018). Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016. M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Auinger: Optimale Akkuladung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
7/11/2019 • 56 minutes, 57 seconds
Elastoplastizität
Gudrun spricht mit Lydia Wagner über Elastoplastizität. Lydia hat im Rahmen ihrer im Mai 2019 abgeschlossenen Promotion Versetzungen in kristallinen Festkörpern numerisch simuliert. Elastizität beschreibt die (reversible) Verformung von Festkörpern unter Belastung. Bei zu großer Belastung reagieren Materialien nicht mehr elastisch, sondern es entstehen irreversible Deformationen. Das nennt man Plastizität. Im Rahmen der Kontinuumsmechanik wird die Deformation durch ein Kräftegleichgewicht basierend auf der Impuls- und Drehimpulserhaltung modelliert. Die konkreten Eigenschaften des Materials werden hierbei über eine spezifische Spannungs-Dehnungs-Relation berücksichtigt. Dabei tritt Plastizität auf, wenn im Material eine kritische Spannung erreicht wird. In klassischen phänomenologischen Plastizitätsmodellen der Kontinuumsmechanik wird dieses Verhalten über eine Fließbedingung in Abhängigkeit der Spannung modelliert. Diese wird durch eine Fließregel und ggf. eine Verfestigungsregel ergänzt, die das plastische Materialverhalten nach Erreichen der Fließgrenze beschreiben. Plastizität ist ein physikalischer Prozess, der auf Kristallebene stattfindet. Ein kristalliner Festkörper wird plastisch verformt, wenn sich eindimensionale Gitterfehler – Versetzungen – durch Belastung im Kristallgitter bewegen, d. h. wenn sich die atomaren Bindungen umordnen. Durch Mittelungsprozesse kann dieses diskrete Verhalten in einem Kontinuumsmodell, dem Continuum dislocation dynamics (CDD) Modell, beschrieben werden. Eine numerische Realisierung von diesem erweiterten Modell und die Evaluation im Vergleich zu diskreten Simulationen ist die Themenstellung der Dissertation von Lydia. Die Physik erarbeitete sich Lydia in Zusammenarbeit mit Materialwissenschaftlern und Ingenieuren in der DFG-Forschergruppe Dislocation based Plasticity am KIT. Literatur und weiterführende Informationen C. Wieners: Effiziente numerische Methoden in der Elasto-Plastizität, Vortragsfolien. P.M. Anderson, J.P. Hirth, J. Lothe: Theory of dislocations Cambridge University Press, New York, 2017, ISBN: 978-0-521-86436-7 T. Hochrainer et al.: Continuum dislocation dynamics: Towards a physical theory of crystal plasticity Journal of the Mechanics and Physics of Solids, 63, 167–178,2014. doi:10.1016/j.jmps.2013.09.012 K. Schulz, L. Wagner and C. Wieners: A mesoscale continuum approach of dislocation dynamics and the approximation by a Runge-Kutta discontinuous Galerkin method International Journal of Plasticity. doi:10.1016/j.ijplas.2019.05.003 Podcasts J. Fröhlich: Poroelastische Medien, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 156, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. August: Materialschaum Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 037, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
7/4/2019 • 45 minutes, 54 seconds
Verkehrsoptimierung
Gudrun spricht in dieser Folge mit Simone Göttlich über Verkehrsoptimierung. Die Verabredung zum Gespräch war im März am Rande einer Tagung in Bonn erfolgt. Am 23. Mai 2019 war Gudrun dann einen Tag zu Gast in der Arbeitsgruppe von Simone an der Universität in Mannheim. Im Sport starten sie gemeinsam unter dem doppeldeutigen Namen "Team Göttlich". Verkehr erleben wir täglich zu Fuß, im Auto, auf dem Fahrrad oder im ÖPNV. Wir haben oft das Gefühl, dass einiges besser geregelt sein könnte, um den Verkehrsfluss zu verbessern. In der Stadt vermischen sich viele unterschiedliche Fragen sehr komplex, da viele unterschiedliche Verkehrsmittel um den Raum konkurrieren. Auf der Autobahn kann man sich auf den Autoverkehr konzentrieren. Aber auch dort muss das unterschiedliche Verhalten von schnell fahrenden Autos und langsamen Lastwagen berücksichtigt werden. Außerdem beeinflussen auch Auf- und Abfahrten die Durchlässigkeit der Autobahnspuren. Es gibt also viele Fragen und Probleme im Zusammenhang mit Verkehr. Ihre Beantwortung kann allen das Leben erleichtern und Kosten erheblich senken. Das Gespräch mit Simone beginnt beim Thema Daten. Wie viele Autos, Personen und Fahrräder bestimmte Strecken zu bestimmten Zeiten nutzen, wird stichprobenhaft recht genau gezählt. Zu einigen Zeiten fließt der Verkehr gut, aber z.B. zur sogenannten Rushhour kommt er ins stocken. Die gezählten Daten fließen in Verkehrsprognosemodelle beispielsweise für Routenplanung ein. Wir rufen dann einfach eine App auf und lassen uns die besten Routen vorschlagen. Für jede wird von der App eine voraussichtliche Reisedauer geschätzt. Für Autobahnverkehr werden außerdem auch ganz aktuelle Daten ergänzt. Um gemeldete Staus aber auch um die Verkehrsdichte auf besonders wichtigen Autobahnabschnitten, wo das automatisiert beobachtet wird. Als ein Beispiel dient im Gespräch von Gudrun und Simone die Autobahn A5 in der Nähe von Frankfurt, wo schon lange Jahre eine Anzeige gute Dienste leistet, die bei Einfahrt in den Ballungsraum die aktuell zu erwartende Fahrtzeit zu markanten Punkten wie beispielsweise dem Flughafen angibt. Als jemand, der sein Flugzeug erreichen muss, kann man dann ruhiger durch den dichten Verkehr reisen und sich an die reduzierte Höchstgeschwindigkeit halten, da man Planungssicherheit hat. Als Nebeneffekt senkt dies die Unfallwahrscheinlichkeit, weil auf hektische Überholmanöver verzichtet wird. Effekte, die man mit Verkehrsflußmodellen simulieren möchte sind erwartbare Engpässe beim Einziehen von Fahrspuren oder auch der sogenannte Stau aus dem Nichts, der bei hoher Verkehrsdichte auftreten kann. Wir alle wissen, dass auf Autobahnen Geschwindigkeitseinschränkungen auf Baustellen vorbereiten, um das Einfädeln der Spuren zu vereinfachen. Wenn der Verkehr dicht genug ist, breitet sich die Störung, die beim Einfädeln entsteht, entgegen der Fahrtrichtung wie eine Schockwelle aus. Das ist eine Beobachtung, die sicher alle schon einmal gemacht haben. Für das Modell heißt das aber, dass es geeignet sein muss Schockwellen als Lösungen zuzulassen. Traditionell gibt es sogenannte mikroskopische und makroskopische Modelle für Verkehr. In den Ersteren schaut man die Fahrzeuge einzeln in ihrem typischen Verhalten an. Die Modelle beruhen auf der Idee des zellulären Automaten. In den makroskopischen Modellen sieht man als wesentlichen Vorgang das Fließen und charakterisiert das Verkehrsgeschehen mit den Variablen Dichte und Fluss. Man kann recht schnell ein erstes Modell aufstellen, indem man folgende elementare Beobachtungen: wenn kein Verkehr ist, ist der Fluß Null (Dichte Null -> Fluß Null) wenn die Dichte maximal ist, stehen alle im Stau und der Fluß Nullmit Hilfe einer konkaven Funktion des Flusses in Abhängigkeit von der Dichte verbindet. Diese hat ein Maximum für eine gewisse Dichte. Die entspricht auch einer Geschwindigkeit des Verkehrsgeschehens, die man mit Bezug auf den besten Fluß als Optimum ansehen kann. Komplexere Modelle nehmen die Masseerhaltung als Grundlage (Autos bleiben in der Summe erhalten) und führen auf die sogenannte Transportgleichung, die hyperbolisch ist. Hyperbolische Gleichungen haben auch unstetige Lösungen, was dem Verkehrsgeschehen entspricht, aber ihre Behandlung schwieriger macht. In der Numerik muss auf die besonderen Eigenschaften Rücksicht genommen werden. Das erfolgt beispielsweise über die sogenannte CFL-Bedingung, die Zeit- und Raumdiskretisierung koppelt. Oder man benutzt Upwind-Schemata für finite Differenzen. Am besten angepasst an hyperbolische Probleme sind jedoch Finite Volumen Verfahren. Sie arbeiten mit der Approximation des Flusses über deren Ränder von Zellen. Simone hat Wirtschaftsmathematik in Darmstadt studiert und anschließend in Kaiserslautern promoviert. Als Akademische Rätin blieb sie einige Jahre in Kaiserslautern und hat sich dann dort auch habilitiert. Seit 2011 ist sie Mathematikprofessorin an der Universität Mannheim am Institut für Wirtschaftsinformatik und Wirtschaftsmathematik. Literatur und weiterführende Informationen J. Kötz, O. Kolb, S. Göttlich - A combined first and second order traffic network model - preprint, March 2019. M. Burger, S. Göttlich, T. Jung - Derivation of second order traffic flow models with time delays Networks and Heterogeneous Media, Vol. 14(2), pp. 265-288, 2019. U. Clausen, C. Geiger: Verkehrs- und Transportlogistik VDI-Buch, 2013. ISBN 978-3-540-34299-1 M. Treiber, A. Kesting: Verkehrsdynamik Springer, 2010. ISBN 978-3-642-32459-8 Podcasts P. Vortisch, G. Thäter: Verkehrsmodellierung I, Gespräch im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. U. Leyn, G. Thäter: Verkehrswesen, Gespräch im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Nökel, G. Thäter: ÖPNV, Gespräch im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. T. Kretz, G. Thäter: Fußgängermodelle, Gespräch im Modellansatz Podcast, Folge 90, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
6/27/2019 • 41 minutes, 6 seconds
Research Software Engineering
Vom 30. Mai - 2. Juni 2019 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN19 statt. Dort traf Sebastian auf Carina Haupt, die schon auf der GPN18 von der öffentlich finanzierten Wissenschaft forderte: Publish Your Research! Carina Haupt studierte Informatik an der Hochschule Bonn-Rhein-Sieg. Aktuell befasst Sie sich wissenschaftlich mit Forschungssoftware, die meist von Wissenschaftlerinnen und Wissenschaftlern nur geringfügiger Kenntnis von Softwaretechnik oder unter Aspekten von Nachhaltigkeit entwickelt wird, da die Software nur als Mittel zum Zweck gesehen wird. Ziel der Wissenschaftlerinnen und Wissenschaftlern ist es schließlich Forschung zu betreiben und nicht Software zu entwickeln. Dabei zeigt die anhaltende Replication Crisis, die darin besteht, dass etliche publizierte wissenschaftliche Arbeiten nicht reproduzierbar sind, und somit alle abgeleiteten Arbeiten auf unsicheren Füßen stehen und eigentlich unter den geänderten Voraussetzungen wiederholt werden müssten. Eine Herausforderung ist, dass für viele Forschende, wie beispielsweise in der Mathematik, oft die Software nur zur Verifikation der eigentlichen wissenschaftlichen Aussagen verwendet wird, und daher eine deutlich geringere Wertschätzung erfährt. Auch wird ein Reputationsverlust befürchtet, wenn die Softwarequalität nicht den Ansprüchen im Kernbereich der Forschung entspricht, so dass oft von einer veröffentlichung des Source Codes und der Daten abgesehen wird. Dabei muss die Offenlegung der verwendeten Verfahren und Daten ein Grundanliegen ernsthafter Forschung sein und eine Kennzeichnung von Software beispielsweise als Proof-of-Concept sollte einen angemessenen Anspruch an die Software sicherstellen. Am Deutschen Zentrum für Luft- und Raumfahrt (DLR), leitet Carina eine Gruppe zum Software Engineering und ist dort mit ihren Kolleginnen und Kollegen für 40 Institute an 20 Standorten Ansprech- und Kooperationspartnerin für Softwareentwicklung unter anderem im wissenschaftlichen Umfeld von Luft- und Raumfahrt, Energie und Verkehr. Inzwischen ist dort ihr Enthusiasmus für Open Source, und Forschenden in der Softwareentwicklung zu unterstützen, zu ihrem eigenen Forschungsgebiet geworden. Bevor sie zum DLR kam, war sie beim Fraunhofer-Institut für Algorithmen und Wissenschaftliches Rechnen (SCAI) im Bereich der Bioinformatik und dem Semantic Web, sowie in der Industrie und nebenberuflich bei der Froscon tätig, bis sie dem Ruf von Andreas Schreiber in ihre aktuelle Gruppe folgte. Um Außenstehenden einen schnellen und sehr unterhaltsamen Einstieg in und wichtige Motivation für das Software Engineering bei der DLR zu bieten, hat sie auf der GPN18 einen Vortrag Software-Fehler in der Raumfahrt: Disintegrating Rockets mit großem Anklang gehalten. Aber kann die Publikation von Forschungsdaten bei Auswirkungen der Replikationskrise wie der Analyse, dass über die Hälfte von Psychologiepapern nicht nachvollzogen werden können, helfen? Auf jeden Fall hätte die Veröffentlichung schon frühere Diskussionen und Verbesserungen der Ergebnisse ermöglicht, da abgeleitete Arbeiten statt der geschriebenen Darstellung auf den echten Daten ihre erweiterten Analysen hätten durchführen können. Soweit die Theorie, praktisch muss man sich eingehend damit befassen, was genau erforderlich ist, um eine Reproduzierbarkeit schon auf Seiten der Daten und Software zu ermöglichen. Das Befassen mit diesen Themen führt von einer Erstellung einer Publikation zum Begriff der Open Science oder offener Wissenschaft, die unter anderem Open Access, Open Data als auch Open Source betrifft. Hier konzentriert sich Carina in ihrer Forschung besonders auf den letzten Teil, insbesondere wie Erkenntnisse aus der Softwaretechnik dazu beitragen können, dem großen Ziel der Reproduzierbarkeit auch über die Zeit hinweg zumindest näher zu kommen. Wichtig ist auch den Entstehensprozess von Software zu betrachten. Die Fernseh-Show Bares für Rares demonstriert, wie die Wertigkeit eines Objekts durch eine nachgewiesene Herkunft signifikant beeinflusst wird. Dies erfolgt durch Nachweis der sogenannten Provenience. Der Begriff Provenience bedeutet die Aufzeichnung der Geschichte der Entstehung eines Objektes. Dies läßt sich auf Software übertragen. Die Wertigkeit und Qualität von einer Software-Publikation könnte zum Beispiel dadruch evaluiert werden indem der Build- und Entwicklungsprozess aufgezeichnet, und mit dem PROV W3C-Standards dokumentiert. Neben der Dokumentation liegt der nächste Schritt für reproduzierbare Software (vgl. E. Heitlinger: Reproduzierbarkeit – Wissenschaftliche Arbeit als Software-Projekt) darin, die erforderlichen zusätzlichen Bestandteile auch zur Verfügung zu stellen. Die nachhaltige Softwareentwicklung befasst sich in besonderem Maße damit, dass die Software von anderen sowohl genutzt als auch in Zukunft weiterentwickelt werden kann. Natürlich sollten wissenschaftliche Veröffentlichungen grundsätzlich die Wissensgewinnung und Validierung genau beschreiben, nur ist dies im gängigen Rahmen und Form normaler Publikationsformen weder in Form noch im Umfang abzubilden. Daher fordern viele Journals und Konferenzen, die Daten und Methoden in der Form von ausführbaren, web-basierten Jupyter Notebooks zur Verfügung zu stellen. Ein neuer Ansatz ist eine "Software Zitierbarkeit" zu ermöglichen, also sowohl die Form mit Weblinks und Versionierung, also auch mit Infrastruktur wie dem Dienst Zenodo, das einen Digital Object Indentifier (DOI) für Software mit einem Langzeitarchiv bereitstellt. Das ist ein Service, der in etwas weniger spezialisierter Form für unterschiedliche Medien auch von vielen Hochschulbibliotheken angeboten wird. Am DLR widmet sich die Software Engineering Initiative mit vielen Ansätzen, um Forschenden zu helfen nachhaltige Software zu entwickeln. Ein wichtiger Bestandteil sind hier Trainings, wie beispielsweise Repositories verwendet werden sollten: Hinweise für sinnvolle Commit-Messages verwenden. Wie sollten Versionen vergeben werden? Neben den eigentlichen Sourcen sollte auch der Build-Prozess und Testdaten im Repository sein Sinnvolle Struktur von Dateibäumen und sprechende Bennenung von Dateien Jedes Repository sollte eine README-Datei haben, die am Anfang kurz die Funktion der Sourcen beschreibt und in welchem Scope und in welchen Constraints die Ziele erreicht werden sollen, wie sie installiert, ausgeführt und getestet wird und wie sollte die Software zitiert werden? Unter welcher Lizenz steht die Software? Unterstützung gibt es auch durch zentrale Infrastruktur, die vom DLR beispielsweise durch eine eigene GitLab bald zur Verfügung stehen wird, und allen Forschenden einen eigenen persönlichen Bereich anbieten, sowie Projekten sofort entsprechende Strukturen bereitstellen. Die im Gespräch erwähnte SHA1-Kollision Shattered hatte einen Stillstand der für mehrere Browser grundlegende WebKit-Entwicklung zur Folge, da deren Subversion-Repository nicht mit der Hash-Kollision zurecht gekommen ist. Es gibt vielseitige Motivationsgründe für Forschende die Unterstützung der Software Engineering Initiative anzunehmen: Entweder sind sie aus einem füngeren universitären Umfeld schon mit der Thematik vertraut, oder haben Probleme durch fehlene Softwarequalität schon kennengelernt, lassen sich von Beispielen überzeugen oder Qualitätsanforderungen überreden, oder es wird ihnen durch Vorgesetzte nahe gelegt. Ein Mittel zur Motivation sind insbesondere die am DLR entwickelten Software Engineering Guidelines, die Kolleginnen und Kollegen zur Verfügung gestellt werden können. Darin sind sowohl Begründungen für das Vorgehen, aber auch einfach zur verfolgende Entscheidungsbäume und Checklisten, die je nach Größe und Kritikalität von Projekt unterschiedlich aufwendige Empfehlungen vorschlagen. Dies kann von einer TODO-Datei bis zur Integration eines vollständigen Issue-Tracker gehen, der in der höchsten Qualitätsstufe auch mit dem kompletten Code-Management integriert werden sollte. Diese Guidelines sind am DLR in eine Qualitätsinitiative integriert, bei der in jedem Institut ein Qualitätsbeauftragter oder eine Qualitätsbeauftragte zumindest erfassen sollte, warum bestimmte Empfehlungen nicht entsprochen wird, oder idealerweise das Institut dabei dazu zu motivieren diese einfach genau so umsetzen. Die erforderliche Bereitstellung digitaler Infrastruktur durch Organisationen spielt für Hochschulen neben den Bereichen des Software Engineerings auch in der Lehre eine wichtige Rolle: "Wenn technische Möglichkeiten wie Vorlesungsaufzeichnungen auch im Rahmen obligatorischer Lehrveranstaltungen genutzt werden sollen, müssen Hochschulen daher auch aus datenschutzrechtlichen Gründen entweder eine eigene Infrastruktur aufbauen oder datenschutzkonforme Dienstleistungen gegen Entgelt in Anspruch nehmen." A. Lauber-Rönsberg in Videocampus Sachsen – Machbarkeitsuntersuchung. Was alles bei der Nutzung mit Software-Repositories am Beispiel von GIT passieren kann, erzählt Sujeevan Vijayakumaran im GPN19-Vortrag Dämliche Dinge mit git anstellen. Grundlage für viele Aktivitäten der Software Engineering Group basieren auf Software Carpentries, beispielsweise mit einer GIT Einführung, die auch auf die Nachhaltigkeit abzielt. In der Helmholtz-Gesellschaft wurde das HIFIS-Projekt (Helmholtz Infrastructure for Federated ICT Services) gestartet, um die Initiativen und Erfahrungen in der Bereitstellung von Infrastrukturen innerhalb der Helmholtz Gesellschaft zu bündeln. Hier geht es nicht nur um den Betrieb der Software, sondern auch um das Training für die Services und im Allgemeinen. Dazu sollen Communities für Software Engineering und weiteren Themen gebildet werden, damit der Austausch über Erfahrungen und Wissen leichter ablaufen kann. Die Initiativen im Bereich der Research Software Engineers werden im neu gegründeten Verein DE-RSE e.V. gegründet, der vom 4.-6. Juni im Potsdam die erste Konferenz für ForschungssoftwareentwicklerInnen in Deutschland deRSE19 veranstaltet. Der Ursprung dieser Initiative liegt im WSSSPE Workshop (Working towards sustainable software for science: practice and experiences) und der Konferenz der Research Software Egineers Association. Die #deRSE19 wird auch besonders durch die TIB, dem Leibniz-Informationszentrum, Technik und Naturwissenschaften, Universitätsbibliothek, unterstützt. In der Zukunft muss es auch darum gehen, Infrastrukturen bereit zu stellen, über gute Verfahren zu informieren und auch Anreize für Forschenden zu schaffen, die verschiedenen Ansätze aufnehmen. Der Verein und das HIFIS-Projekt möchten hier mit unterschiedlichen Ansätzen dazu beitragen die Situation zu verbessern, und insbesondere die aktuelle Dynamik in Richtung Open Journals, Open Data, Open Source und Open Science zu nutzen. Für einzelne Gruppen und Instituten sollte die Wichtigkeit sich mit Open Source Lizenzen nicht unterschätzt werden: Es kann sonst zu Inkopatibilitäten zwischen verschiedenen Lizenzen kommen, oder es fehlen Einverständniserklärungen von einzelnen, nicht vertraglich verbundenen Personen. Diese können beispielsweise Studierende sein, die im Rahmen einer Abschlussarbeit an einem Projekt mitgearbeitet haben. Hier muss ein Contributor Licence Agreement bereit sein, die von sonst nicht vertraglich gebunden Beitragenden unterschrieben werden kann. Literatur und weiterführende Informationen C. Haupt, T. Schlauch: The Software Engineering Community at DLR—How We Got Where We Are, Proceedings of the Workshop on Sustainable Software for Science: Practice and Experiences (WSSSPE5. 1), 2017. A. Schreiber, C. Haupt: Raising awareness about open source licensing at the German aerospace center, 2018 IEEE Aerospace Conference. IEEE, 2018. D. A. Almeida, G. C. Murphy, G. Wilson, M. Hoye: Do software developers understand open source licenses?, Proceedings of the 25th International Conference on Program Comprehension (pp. 1-11), IEEE Press, 2017. R. Krishnamurthy, M. Meinel, C. Haupt, A. Schreiber, P. Mäder: DLR secure software engineering: position and vision paper. Proceedings of the 1st International Workshop on Security Awareness from Design to Deployment (pp. 49-50). ACM, 2018. Podcasts M. Fromm, K. Förstner: Open Science Radio C. Haupt, S. Janosch, K. Förstner: Voices from de-RSE Conference 2019, Open Science Radio, OSR171, 2019. C. Haupt, S. Druskat, K. Förstner: de-RSE Association and Conference for Research Software Engineers in Germany, Open Science Radio, OSR140, 2019. S. Janosch, K. Förstner: Forschungssoftware in Deutschland, Open Science Radio, OSR091, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching C. Haupt, S. Ritterbusch: Research Software Engineering, Gespräch im Modellansatz Podcast, Folge 208, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/research-software-engineering GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
6/20/2019 • 1 hour, 59 minutes, 37 seconds
Propensity Score Matching
Auf der Gulaschprogrammiernacht 2019 traf Sebastian auf den Podcaster Data Science Phil Philipp Packmohr @PPackmohr. Sein Interesse zur Data Science entstand während seines Studiums in den Life Sciences an der Hochschule Furtwangen in den Bereichen der molekularen und technischen Medizin und zu Medical Diagnostic Technologies. In seiner Masterarbeit hat er sich betreut von Prof. Dr. Matthias Kohl mit der statistischen Aufbereitung von Beobachtungsstudien befasst, genauer mit der kausalen Inferenz aus Observationsdaten mit Propensity Score Matching Algorithmen. Kausale Inferenz, das Schließen von Beobachtungen auf kausale Zusammenhänge, ist tatsächlich sehr wichtig in allen empirischen Wissenschaften wie zum Beispiel der Ökonomie, der Psychologie, der Politologie, der Soziologie und auch der Medizin. Idealerweise sollten Studien in der Form von randomisierten kontrollierten Studien durchgeführt werden, da nur so eine bewusste oder unbewusste Einflussnahme auf den Ergebnisse verhindert werden kann. Beispielsweise leiden Evaluationen an Hochschulen am Ende von Vorlesungen oder Studiengängen oft unter einem Survivorship Bias, da nur noch die Personen befragt werden, die bis zum Ende durchgehalten haben. Doch werden nicht alle Studien aufgrund von verschiedenen Gründen (wie zum Beispiel der hohen Kosten) randomisiert durchgeführt, und so war es auch bei dem für seine Arbeit zentralen Observationsdatensatz von Prof. Dr. Konrad Reinhart an der Klinik für Intensivmedizin vom Universitätsklinikum Jena zu Therapien zur Vermeidung von akutem Nierenversagen. Der Datensatz behandelte 21757 Patienten mit soziodemographischen und biologischen Merkmalen aus der elektronischen Gesundheitsakte mit bis zu 209 Variablen, sowie der gewählten Therapie und ob es zu Nierenversagen kam oder nicht. Die Variablen werden bei der Untersuchung als Confounder, Störfaktoren oder Kovariate benannt, die nicht als ursächlich für den Therapieverlauf gesehen werden, aber diesen sowohl beeinflussen können. In einer nicht-randomisierten Studie werden die Confounder nicht gleichmäßig über die Therapiearten verteilt sein, und damit die zusammengefassten Ergebnisse unerwünscht verfälschen. Eine Aufbereitung anhand der Confounder kann aber nie eine völlig randomisierte Studie ersetzen, da in den Daten nicht auftretende Confounder, wie bespielsweise dem athletischen Status, nicht berücksichtigt werden können. Im Propensity Score Matching werden nun die Erfolgsquoten von Therapien vereinfacht gesagt als durch einen Score gewichtete Erfolgsquote unter Berücksichtigung der aufgetretenen Häufigkeiten der Confounder zur erwarteten Häufigkeit der Confounder berechnet. Problematisch ist dabei der Umgang mit fehlenden Datenwerten, da nur ein Bruchteil der Datensätze wirklich alle Variablen definiert. Hier mussten sinnvolle Datenergänzungsverfahren eingesetzt werden. Die Auswertung erfolgte mit dem kostenlosen Open Source Projekt R (Plattform für statistische Berechnungen), das eine Vielzahl Verfahren und Algorithmen zur Verfügung stellt. Die im Laufe der Arbeit entwickelten Verfahren finden sich im Github Repository zu den Analyseverfahren. Die Analyse des Observationsdatensatz ergab nun Risikoraten von 15.6% bis 11.5% für Nierenversagen. Dies muss aber nicht bedeuten, dass die eine Therapie immer der anderen Therapie vorzuziehen ist, da viele Kriterien für die Wahl einer Therapie einbezogen werden müssen. In der personalisierte oder prädiktiven Medizin wird versucht, an Hand von Observationsanalysen sogar weitergehende Therapiehinweise in Abhängigkeit von Confoundern der einzelnen Patienten zu geben. Den Anstoß für den Data Science Phil Podcast fand Philipp in einem Aufruf vom YouTuber Martin Jung. Im englisch-sprachigen Podcast geht es um grundlegende Verfahren der Data Science, aber auch um weiterführende Themen, die er auf Konferenzen mit Gästen diskutiert. Literatur und weiterführende Informationen P. R. Rosenbaum, D. B. Rubin, Donald B: The Central Role of the Propensity Score in Observational Studies for Causal Effects, Biometrika. 70 (1): 41–55 , 1983. J. Pearl: Causality: Models, Reasoning, and Inference , Cambridge University Press, 2019. D. Ho, K. Imai, G. King, E. Stuart: MatchIt - Nonparametric Preprocessing for Parametric Causal Inference, Journal of Statistical Software, 42(8), 1 - 28, 2011. D. Ho, K. Imai, G. King, E. Stuart: MatchIt: Nonparametric Preprocessing for Parametric Causal Inference, R-Module, 2018. E. A. Stuart: Matching Methods for Causal Inference: A review and a look forward, Statistical Science 25(1): 1-21, 2010. Research Gate Profil von Philipp Packmohr Github Profil von Philipp Packmohr Science Days im Europapark Rust Data Science Blog von Philipp Packmohr stamats von Prof. Dr. Matthias Kohl Podcasts Data Science Phil Podcast P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. I. Hinneburg: EbPharm-Magazin im September, Adjustierung in epidemiologischen Studien, Podcast Evidenzbasierte Pharmazie, 2017. GPN19 Special P. Packmohr, S. Ritterbusch: Neural Networks, Data Science Phil, Episode 16, 2019. P. Packmohr, S. Ritterbusch: Propensity Score Matching, Gespräch im Modellansatz Podcast, Folge 207, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. http://modellansatz.de/propensity-score-matching GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
6/13/2019 • 1 hour, 9 minutes, 59 seconds
Zellkerne
Gudrun unterhält sich in dieser Folge mit Lennart Hilbert, dem Leiter des Hilbert Labs am KIT. Das Labor ist Teil des Instituts für Toxikologie und Genetik (ITG), einem multidisziplinären Zentrum für biologische und chemische Forschung am KIT. Lennart Hilbert ist außerdem Juniorprofessor für Systembiologie/Bioinformatik am Zoologischen Institut des KIT. Das Thema von Lennarts Gruppe ist Computational Architectures in the Cell Nucleus. Das kann man auf zwei unterschiedliche Arten interpretieren. Einerseits untersucht Lennarts Gruppe den räumlichen Aufbau des Zellkerns mit Hilfe von Computern. Es heißt aber auch dass man aufgrund der dabei gewonnenen Erkenntnisse als Fernziel Datenverarbeitung mit Hilfe des Zellkernes als Informationsspeicher ermöglichen will. Gudrun und Lennart haben sich im Rahmen eines Treffens des KIT-Zentrums MathSEE kennengelernt, das im letzten Gespräch vorgestellt wurde. Mit der Hilfe von Super Auflösungs Mikroskopie schauen Lennart und seine Gruppe in das Innere von Zellkernen und sehen dabei dreidimensionale Bilder. Diese Bilder gleichen sie mit den Ergebnissen von den bisher standardmäßig durchgeführten Sequenzierexperimenten von Molekularbiologen ab. "Sehen" erfolgt mit empfindlichen Digitalkameras, deren Bilder geeignet gefiltert werden. Dabei ist eine einschränkende Randbedingung, dass die betrachteten Samples gegen Licht empfindlich sind, aber Licht für die visuelle Darstellung unabdingbar nötig ist - je kleiner die Details, desto mehr Licht. Man kann sich unschwer vorstellen, dass zur Bearbeitung diese Art von Fragen Informatik, Physik, Biologie und Mathematik nötig sind. Damit sich im Rahmen der Zusammenarbeit alle einbringen können, ist es hilfreich, wenn die Methoden einfach und die Ergebnisse visuell unmittelbar verständlich sind. Eine Grundannahme ist, dass die räumliche Organisation im Zellkern den Informationsflüssen aus der DNA-Sequenz entspricht. Die treibende Frage ist: Wie funktioniert Gensteuerung? Der betrachtete Regelkreis ist, dass die DNA als Bibliothek funktioniert. Aus einem Teil wird eine RNA-Kopie erstellt, sodass bestimmte Proteine hergestellt werden können. Diese Eiweiße aber steuern anschließend, welche Teile der DNA als nächstes gelesen werden (das schließt den Regelkreis). In der Systembiologie untersucht man dies bisher in Form von Differentialgleichungssystemen auf einer Metaebene. Wie das aber passiert ist aber noch relativ unklar. Die Hoffnung ist: Neues Sehen hilft hier, neues zu lernen und hierfür ist neueste Technik hilfreich. Die Molekulare Ebene ist der Teil der Biologie, wo im Moment am meisten Neues passiert. Lennart hat in Bremen Physik studiert und anschließend an der McGill University in Montréal in Physiologie promoviert. Hier hat er zum ersten Mal zwischen Theorie und Experiment in zwei Gruppen gleichzeitig gearbeitet. In Dresden am Zentrum für Systembiologie (Max Planck Institut für Molekulare Zellbiolgie und Genetik und Max Planck Institut für die Physik komplexer Systeme) konnte er als Postdoc weiterhin interdisziplinär arbeiten. Seit 2018 ist er am KIT tätig. Lennart und seine Gruppe arbeiten mit Zebrafischen, Bakterienstämmen, Zeitreihenanalyse und anderen mathematischen Modellen. Sie benötigen hoch parallele Simulationen und Machine Learning (z.B. um Mikroskopie-Daten zu entrauschen und mehr Farben gleichzeitig darzustellen). Lennart drückt es im Gespräch so aus: "Ich hab keine Disziplin mehr, ich habe nur noch Fragen." Die beiden Teile seiner Arbeit unterscheiden sich stark: Im Labor sind Gruppentreffen nötig, weil alle aufeinander angewiesen sind. Es wird viel geredet und präzise Handarbeit ist wichtig. In der theoretischen Arbeit ist man auf sich selbst angewiesen und es gibt weniger Interaktion. Any doubts #activematter is a relevant framework to understand nuclear and chromatin organization? Please look at this time-lapse. Zebrafish blastula nucleus, DNA label is Hoechst 33342, single optical section, recorded last night using @VisiTech_UK iSIM. @LennartHilbert, 16.3.2019 Literatur und weiterführende Informationen Y. Sate e.a.: Quantitative measurements of chromatin modification dynamics during zygotic genome activation, bioRxiv preprint, 2019. Lennart Hilbert: Stress-induced hypermutation as a physical property of life, a force of natural selection and its role in four thought experiments. Physical Biology 10(2):026001, 2013 Portrait of Science über Lennart Teil 1 Portrait of Science über Lennart Teil 2 A. Lampe: Hochauflösungsmikroskopie, Die kleinen Dinge, ScienceBlogs, 2017. A. Lampe: Es sind die kleinen Dinge im Leben, 33c3, 2016. Podcasts T. Hagedorn, G. Thäter: MathSEE, Gespräch im Modellansatz Podcast, Folge 205, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. M. Gonciarz, G. Thäter: Portrait of Science, Gespräch im Modellansatz Podcast, Folge 197, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. Omega Tau-Podcast 072: Forschung in der Zellbiologie, 2011. J. Schmoranze, I. Wessolowski: Beim Herrn der Mikroskope – AMBIO Core Facility, Sciencekompass Podcast, Episode 009 B, 2017.
6/6/2019 • 57 minutes, 48 seconds
MathSEE
Gudrun spricht in dieser Folge mit Tanja Hagedorn, die Geschäftsführerin des KIT-Zentrums MathSEE ist. Das Karlsruher Zentrum für Technologie (KIT) besteht aus sehr vielen Instituten, die in fünf thematischen Bereichen zusammengeschlossen sind. Andererseits gibt es die eher horizontal durch alle Bereiche hindurch sortierenden Gremien, die KIT-Zentren heißen. Hier sind Forscherinnen und Forscher Mitglied und es "werden Fragestellungen, die von fundamentaler Bedeutung für die Existenz und Weiterentwicklung der Gesellschaft sind oder die aus dem Streben nach Erkenntnis resultieren, bearbeitet." ( lt. Webseite). Sieben solche Zentren gibt es seit Gründung des KITs: Energie Information · Systeme · Technologien Mobilitätssysteme Elementarteilchen- und Astroteilchenphysik Klima und Umwelt Materialien Mensch und Technik Allerdings gab es ursprünglich kein Thema, unter dem die vielen Aktivitäten, die die Mathematik am KIT für die Gesellschaft leistet (und die auch nicht nur in der KIT-Fakultät für Mathematik stattfinden), ein Zuhause finden könnte. Deshalb entstand der Wunsch nach einem passenden Zentrum im KIT. Das KIT-Zentrum Mathematics in Sciences, Engineering, and Economics, kurz "MathSEE", gibt es nun seit Oktober 2018. In MathSEE kooperieren theoretisch-mathematisch und anwendungsorientiert arbeitenden Wissenschaftlerinnen und Wissenschaftler in gemeinsamen Forschungsprojekten. Aufgabe von MathSEE ist es auch, diese Forschung nach außen hin sichtbar zu machen sowie neue interdisziplinäre mathematische Forschung am KIT zu fördern. Da gilt es vor allen Dingen auch, Vermittlung zwischen Großforschungs- und Universitätsbereich zu betreiben. MathSEE bietet unter anderem eine Anschubförderung für neue interdisziplinäre Projekte] an, deren erste Ausschreibungsrunde gerade erfolgreich abgeschlossen wurde und die ersten sieben Projekte eine Förderung erhalten haben. Die nächste Bewerbungsfrist ist Ende Juni 2019. Keimzelle von MathSEE war insbesondere der Sonderforschungsbereich 1173: Wellenphänomene: Analysis und Numerik. Doch auch andere bestehende große Drittmittelprojekte in der Mathematik wie das Graduiertenkolleg 2229: Asymptotic Invariants and Limits of Groups and Spaces bilden die Grundlage für die Entstehung von MathSEE. Sie haben dazu geführt, dass die besondere Stellung der Mathematik an der technischen Forschungseinrichtung KIT und die Forschungsstärke der Mathematik sichtbarer wurden. Die Initiative der Sprecherin Marlis Hochbruck hat die Gründung von MathSEE dann ins Rollen gebracht. Der engagierte Wissenschaftliche Sprecher von MathSEE, Prof. Martin Frank, ist in seiner Doppelrolle als Professor in der Mathematik und SCC-Direktor perfekt für die Aufgabe. Um gezielter zusammen arbeiten zu können, ist MathSEE mit seinen momentan knapp 130 Mitgliedern weiter untergliedert in Methodenbereiche: MB 1: Mathematische Strukturen: Formen, Geometrie, Zahlentheorie und Algebra MB 2: Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation MB 3: Inverse Probleme, Optimierung MB 4: Stochastische Modellbildung, statistische Datenanalyse und Vorhersage Mitglieder arbeiten oft in mehreren Methodenbereichen mit. Die Methodenbereiche werden jeweils durch ein Paar interdisziplinär geleitet, d.h. eine Person aus der Mathematiker und eine Person aus einem anderen Forschungsbereich. Wichtig in MathSEE ist, dass insbesondere auch Promovierende Mitglied sein können und hier Kooperationspartner für Fragestellungen in ihrem Promotionsprojekt finden können. Für sie bietet die Graduiertenschule MathSEED außerdem ein umfassendes Qualifikationsprogramm an. MathSEE fördert darüber hinaus zwei Veranstaltungsformate: In der MathSEE Modellierungswoche im August entwickeln Studierende Lösungsansätze zu aktuellen interdisziplinären mathematischen Fragestellungen von Problemstellenden aus MathSEE. Studierende erhalten dabei einen ersten Eindruck von der Forschung in angewandter Mathematik und die Problemstellenden können erste Ergebnisse erwarten. Bald wird auch ein MathSEE ScienceSlam stattfinden, da MathSEE versucht, auch für Mathematik bei einem größeren Publikum zu werben. Literatur und weiterführende Informationen MathSEE Veranstaltungen und Termine Podcasts M. Frank, G. Thäter: Kinetische Theorie, Gespräch im Modellansatz Podcast, Folge 152, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. M. Hattebuhr, K. Wohak, G. Thäter: Simulierte Welten, Gespräch im Modellansatz Podcast, Folge 179, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
5/30/2019 • 45 minutes, 23 seconds
Monte-Carlo Simulationen
Gudrun spricht mit Alina Sage, die gerade eine Masterarbeit am Deutschen Krebsforschungszentrum in Heidelberg (DKFZ) abgeschlossen hat. Mit Mark Bangert, dem Leiter der Arbeitsgruppe dort hatte Gudrun vo einigen Monaten über die Physik der Strahlentherapie gesprochen. Auch mit Alina gibt es schon eine Folge im Modellansatz, denn sie hat über ihre Erfahrungen als Studienbotschafterin berichtet. In der Masterarbeit von Alina geht es darum, die Unsicherheiten beim Bestrahlungsvorgang besser zu modellieren. In der Fachsprache heißt das noch recht junge Forschungsgebiet Uncertainty Quantification. Es gibt natürlich unterschiedliche Ursachen, die zu einer nicht punktgenauen Umsetzung des Bestrahlungsplanes für Patienten führen. Alina wählte daraus zwei, die ihr besonders wichtig erschienen: dass der Strahl nicht aus einer Punktquelle kommt, sondern die Quelle um ein Zentrum herum streut dass der Patient nicht ganz exakt an dem Ort liegt, wie er in der Simulation angenommen wird, sondern etwas verschoben dazu. Beide Prozesse lassen sich recht gut mit einer Normalverteilung beschreiben. Eine Normalverteilung wird durch eine glockenförmige Kurve dargestellt. Das Maximum ist der Wert, der als der wahrscheinlichste angenommen wird. Er heißt Erwartungswert. Wie stark die Prozesse von diesem Wert abweichen, ist in der Glockenkurve dadurch ausgedrückt, ob die Kurve steil zu diesem Maximum hin anssteigt und anschließend wieder fällt (dann weicht sie wenig ab) oder eher breit aussieht. Das wird im Parameter Varianz (oder Standardabweichung) ausgedrückt. Um mit Hilfe von Simulationen die Unsicherheit zu beziffern, verwendet Alina das Instrument der Monte-Carlo-Simulation. Sie benutzt die Open source software TOPAS. Insbesondere heißt Monte-Carlo-Simulation, dass sie eine riesige Anzahl von möglichen Pfaden der Strahlungspartikel simulieren lässt, um dann aus Tausenden von solchen Verläufen eine Näherung für den Erwartungswert der im Gewebe deponierten Bestrahlungsdosis zu errechnen. Die Partikel folgen dabei jeweils einem Random Walk. Im Prinzip muss man diese Simulationen für beide Prozesse machen, die mit ihrer Unsicherheit betrachtet werden. Hier kommt Alina jedoch eine Eigenschaft der Normalverteilung zu Gute: wenn zwei normal verteilte Prozesse unabhängig voneinander einwirken, lässt sich die Summe ihrer Wirkungen in einem einzigen normal verteilten Prozess ausdrücken. D.h. hier, dass Alina für diesen Prozess nur einmal die Monte-Carlo-Simulation durchführen muss. Das spart extrem viel Rechenleistung ein. Im Prozess der unabsichtlichen Verschiebung des Patienten um kleine Längen ist es insbesondere von Belang, wenn z.B. in der Nähe der Lunge bestrahlt wird. Fast alle Organe und Gewebe im Körper haben eine Dichte, die der von Wasser entspricht. Damit kann man den Weg der Partikel in Wechselwirkung mit dem Körper recht einfach modellieren. Wenn jedoch die Luft gefüllte Lunge auf dem Partikelweg ist, wird viel weniger Energie deponiert und das Partikel landet an einem Ort, der viel weiter von der Strahlungsquelle entfernt ist als für normales Gewebe. In diesem Fall kann man in der Bestrahlung z.B. den Hinweis geben, besonders auf Verschiebungsvermeidung in bestimmt gefährdete Richtungen zu achten. Literatur und weiterführende Informationen H. Paganetti: Range uncertainties in proton therapy and the role of Monte Carlo simulation. Phys. Med. Biol. 7.06.2012 57(11). A.E. Feiguin: Monte Carlos error analysis online lecture course B. Bednarz, M. Engelsman, and H. Paganetti: Uncertainties and correction methods when modeling passive scattering proton therapy treatment heads with Monte Carlo. Phys Med Biol. 2011;56:2837–2854. Podcasts M. Bangert, G. Thäter: Bestrahlungstherapie, Gespräch im Modellansatz Podcast, Folge 201, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019.
5/2/2019 • 28 minutes, 59 seconds
Emmy Noether
Gudrun war im Dezember 2018 wieder zu Gast an der FU in Berlin. Schon zum dritten Mal ist Mechthild Koreuber ihre Gesprächspartnerin für den Podcast Modellansatz. Der Anlass des Gespräches war, dass im November 2018 unter dem Schlagwort Noethember die Mathematikerin Emmy Noether in den Fokus gerückt wurde. Auf unterschiedlichen Plattformen und in vielseitigen Formaten wurden die einzelnen Tage eines ganzen Monats der Darstellung ihres Lebens und Werks gewidmet. Für jeden Tag gab es Vorschläge für einzelne Stationen und Aspekte ihres Lebens, die in unterschiedlicher Art und Weise aufgenommen und dargestellt wurden. Unser Episodenbild entstand auch im Rahmen dieser Aktion und wurde uns von Constanza Rojas-Molina zur Verfügung gestellt. Unser Podcast hat im Dezember etwas verspätet auch zum Noethember beigetragen. Die Veröffentlichung des zweiten der beiden aufgezeichneten Emmy-Noether-Gespräche hat nun einige Monate Abstand zum November 2018. Das hat einen guten Grund: im Gespräch geht es neben der Person Emmy Noether auch um die Idee einer Konferenz aus Anlass des 100. Jahrestages ihrer Habilitation. Die Details der Konferenz waren im Gespräch noch etwas vage, aber die im Dezember gemachten Pläne werden Anfang Juni in Berlin tatsächlich Realität. Für diesen Teil des Gespräches stieß Rupert Klein dazu. Gudrun hatte sich im Rahmen des Noethember an Mechthild Koreuber gewandt, weil diese ein Buch über Emmy Noether und ihre Schule geschrieben hat, das 2015 im Springer Verlag erschienen ist. Schon beim ersten Gespräch zu Gender und Mathematik entstand der Plan, später eine Folge zu der Seite von Emmy Noether zu führen, die im Buch dargestellt wird. Nun gab es dafür zwei konkrete Anlässe, den Plan zu realisieren. Was hat Mechthild so sehr an der Person Noethers fasziniert, dass sie sich viele Jahre mit der Person und der daraus entstandenen Schule beschäftigt hat neben ihren anderen beruflichen Aufgaben? Dabei hatte sie erst sehr spät im Mathematikstudium den Namen Emmy Noether zum ersten mal gehört. Schon damals faszinierte sie der Widerspruch zwischen der Leistung der Pionierin und ihrer Anziehungskraft auf den mathematischen Nachwuchs zur eigenen prekären Stellung im Wissenschaftsbetrieb und ihrer Außenseiterrolle als Frau. Sie wollte ergründen, woher das starkes Streben nach Wissen und dem Verbleiben in der Mathematik unter schwierigsten Bedingungen kam. Der sehr berühmte und gestandene Kollege Hermann Weyl sagte selbst "Sie war mir intellektuell überlegen". Am Beispiel Emmy Noethers schärft sich die Frage danach: was ist mathematische Produktivität, unter welchen Rahmenbedingungen kann sie entstehen, unterschiedliche Felder verbinden und ganz neue Theorierahmen für Mathematik entwickeln. Warum ist gerade Emmy Noether das gelungen? Im Umfeld von Noether gibt es weitere sehr interessante Frauen, die heute größtenteils fast vergessen sind wie Marie-Louise Dubreil-Jacotin, die erste französische Mathematikprofessorin. Sie war Schülerin bei Emmy Noether in Frankfurt am Main und Göttingen. Außerdem eine türkische Mathematikerin, die nach Deutschland kam um mit diesen Frauen zu arbeiten. Es entsteht der Verdacht, dass sie als Außenseiterin im Feld der Wissenschaft tradierte Denkmuster nicht so leicht übernahm, weil sie auf ihrem eigenen Weg in die Wissenschaft ständig Grenzen überschreiten musste. Um überhaupt Mathematik betreiben zu können, musste sie sich einen Platz definieren und erkämpfen, den es so noch nicht gab. So konnte sie sogar in Feldern der Mathematik, in denen sie selbst nicht geforscht hat, revolutionäre Ideen einbringen. Beispiel hierfür ist die Topologie in Göttingen vertreten durch Brower und Alexandrow. Hier schuf sie die Betti Zahlen und lieferte den Kern für ein ganz neue Feld: Algebraische Topologie. Sie lebte den Zusammenstoß von Denkstilen und eröffnete sich und anderen damit einen Raum für Kreativität. Davon möchten wir auch heute lernen. Unter den heutigen Bedingungen wäre es wichtig, mehr Brücken zu schlagen und Kreativität zu leben, die Wissensvorstellung verändern darf. Der Trend ist aber eher Kontrolle und Quantifizierung. Ein Ausweg aus diesem engen Korsett ist in Berlin der 2018 gegründete Mathematik-Cluster MATH+. Die Idee dahinter ist es, Mathematik in einen viel breiteren Kontext als Technik und Ökonomie zu setzen. Dieses interdisziplinäre Gespräch wird auch die Noether Tagung möglich machen und insbesondere auch Wissenschaftsgeschichte sowie marginalisierte Perspektiven einbeziehen. Dialogisches Arbeiten zwischen Mathematik und anderen Disziplinen soll in der Konferenz exemplarisch abgebildet und gelebt werden. Für die Öffentlichkeit wird ein Theaterstück geschrieben und aufgeführt, das Mathematik ernst nehmen wird. Die Hoffnung der Organisator_innen ist, dass Personen, die skeptisch zu einer Sitzung der Konferenz gehen, begeistert wieder gehen. Rupert Klein ist in seinen Worten ein "sehr angewandter Mathematiker", Er hat Maschinenbau studiert und in Potsdam Klimafolgeforschung betrieben. Inzwischen ist er an der FU in der Mathematik und arbeitet im SFB Skalenkaskaden mit Lebenswissenschaftlern und Physikern zusammen. Er ist im Vorstand des Mathe Clusters MATH+ und beteiligt am Schwerpunkt: Emerging Field: Concepts of Change. Podcasts M. Pössel, G. Thäter: Noether-Theorem, Gespräch im Modellansatz Podcast, Folge 192, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. A. Mischau, M. Koreuber, G. Thäter: Gender und Mathematik, Gespräch im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. In our time: Emmy Noether - M. Bragg and guests. BBC Radio 3, Sendung vom 24.01.2019 (archiviert) Literatur und weiterführende Informationen Noether Konferenz im Juni 2019 in Berlin MATH+ M. Koreuber: Emmy Noether, die Noether-Schule und die moderne Algebra. Zur Geschichte einer kulturellen Bewegung, Heidelberg: Springer, 2015. James W. Brewer and Martha K. Smith (eds.), Emmy Noether: A Tribute to Her Life and Work Marcel Dekker, 1981. Auguste Dick (trans. H. I. Blocher), Emmy Noether 1882-1935 Birkhäuser, 1981. Israel Kleiner, A History of Abstract Algebra Birkhäuser, 2007. Yvette Kosmann-Schwarzbach (trans. Bertram E. Schwarzbach), The Noether Theorems: Invariance and Conservation Laws in the Twentieth Century Springer, 2010. Leon M. Lederman and Christopher T. Hill, Symmetry and the Beautiful Universe Prometheus Books, 2008. Ressourcen zum #noethember Francesca Arici: Noethember - drawing a life Alle Bilder im Noethember von Constanza Rojas-Molina Noethember - ein ganzer Monat für Emmy Noether Der schönste Satz der klassischen Physik
4/25/2019 • 59 minutes, 37 seconds
Frequenzkämme
Gudrun traf sich zum Gespräch mit Janina Gärtner. Sie hat an der KIT-Fakultät Mathematik gerade ihre Promotion mit dem Titel "Continuation and Bifurcation of Frequency Combs Modeled by the Lugiato-Lefever Equation" abgeschlossen. Die Arbeit war Teil der Forschung im SFB 1173: Wellenphänomene und ist interdisziplinär zwischen Mathematik und Elektrotechnik entstanden. Im Zentrum stehen Frequenzkämme, die Janina theoretisch und praktisch betrachtete. Einerseits geht es um analytische Untersuchungen zur Existenz und Regularität von bestimmten Lösungen der zugehörigen Gleichung. Andererseits werden numerisch bestimmte Fälle gelöst, für die sich die Arbeitsgruppe in der E-Technik besonders interessiert. Frequenzkämme sind optische Signale, die aus vielen Frequenzen bestehen und mehrere Oktaven überspannen können. Sie entstehen beispielsweise indem monochromatisches Laserlicht in einen Ringresonator eingekoppelt wird und die resonanten Moden des Ringresonators angeregt werden. Durch Mischung und aufgrund des nichtlinearen Kerr-Effekts des Resonatormaterials werden Frequenzkämme mit unterschiedlichen Eigenschaften erzeugt. Die mathematische Beschreibung des elektrischen Feldes innerhalb des Ringresonators erfolgt durch die Lugiato-Lefever Gleichung. Von besonderem Interesse sind dabei sog. Solitonen-Kerrkämme („Soliton Kerr Combs“ oder auch „Dissipative Kerr-Soliton Combs“), die aus im Resonator umlaufenden zeitlich und räumlich stark lokalisierten Solitonen-Impulsen entstehen. Solitonen-Kerrkämme zeichnen sich durch eine hohe Zahl an Kammlinien und damit eine große optische Bandbreite, durch geringes Phasenrauschen und durch eine hohe Robustheit aus. Ausgangspunkt von Janinas Untersuchungen ist der Existenzbeweis von Soliton-artigen Frequenzkämmen für den Fall, dass die Dispersion positiv ist. Anschließend können die Parameterbereiche angegeben werden, für die das praktisch auftritt. Mathematisch ist der erste Trick, dass man sich auf zeitlich konstante (stationäre) Lösungen beschränkt. Da örtlich nur eine Variable betrachtet wird, wird aus der partiellen eine gewöhnliche Differentialgleichung. Für diese Gleichung betrachtet Janina zunächst einen sehr einfachen Fall (sogenannte homokline Triviallösungen): Lösungen, die gegen eine Konstante streben. Die Gleichung wird dafür zunächst ohne Dämpfungs- und ohne Anregungsterme betrachtet. Es zeigt sich, dass die einzigen homoklinen Lösungen rein imaginär sind. Anschließend wird zuerst die Anregung hinzugenommen und mit Aussagen zu Eindeutigkeit und Verzweigungen können die Lösungen hier fortgesetzt werden. Selbst nach Hinzunahme der Dämpfung funktionieren noch Fortsetzungsargumente in einer gewissen Umgebung. Das passt aber gut zu der Idee, dass man die Verzweigungsstellen finden möchte. Mit Hilfe der Software pde2path können analytisch alle Verzweigungspunkte bestimmt werden. Anschließend werden anhand von konkreten Beispielen alle primären Verzweigungen vom Ast der Triviallösungen bestimmt. Dies führt zu einer Karte von Lösungen und Stabilitätseigenschaften in der Phasen-Ebene, die sehr gut mit vereinfachten Stabilitätskriterien für nichtperiodische Lösungen übereinstimmt. Daraus werden Heuristiken zum Auffinden der im Zeitbereich am stärksten lokalisierten Frequenzkämme abgeleitet. Janina hat ein Lehramtsstudium Mathematik/Physik am KIT absolviert. Als sie sich für ihre Zulassungsarbeit mit einem mathematischen Thema auseinandergesetzt hat, bekam sie Lust, die mathematische Seite ihrer Ausbildung zum Master Mathematik zu vervollständigen. Anschließend hat sie eine Promotionsstelle in der KIT-Fakultät für Mathematik angenommen, wo sie auch im Schülerlabor Mathematik tätig war. Mit der Gründung des SFB hat sie sich schließlich ganz auf das besprochene Forschungsthema konzentriert. Literatur und weiterführende Informationen Herr, T. et al. Temporal solitons in optical microresonators. Nat. Photon. 8, 145–152, 2014. N. Akhmediev & A. Ankiewicz: Dissipative Solitons: From Optics to Biology and Medicine, Springer, 2008. Marin-Palomo, Pablo, et al.: Microresonator-based solitons for massively parallel coherent optical communications, Nature 546.7657: 274, 2017. Trocha, Philipp, et al. :Ultrafast optical ranging using microresonator soliton frequency combs, Science 359.6378: 887-891, 2018. Podcasts A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. K. Sobotta, H. Klein: Schülerlabore, Resonator-Podcast, Folge 59, Holger Klein/Helmholtz-Gemeinschaft, 2015.
4/11/2019 • 32 minutes, 2 seconds
Bestrahlungstherapie
Gudrun sprach im Janur 2019 mit Mark Bangert vom Deutschen Krebsforschungszentrum in Heidelberg. Er arbeitet dort seit vielen Jahren als Physiker in der medizinischen Physik. Sein Thema ist die Optimierung von Bestrahlungstherapien. Der Punkt, an dem sich die Arbeit von Mark und Gudrun seit Ende 2018 berühren, ist eine Masterarbeit von Alina Sage in der Bestrahlungsplanung. Ein Gespräch mit ihr werden wir ebenfalls bald veröffentlichen. Es gibt viele und unterschiedliche Betätigungsfelder für Physiker in der medizinischen Physik, unter anderem in der Strahlentherapie oder Radiologie (CT- und MRI-Bildgebung). Marks Hauptaufgabe ist die Simulation und Optimierung von Strahlungsdosen die Tumor-Kranke appliziert bekommen, um die Nebenwirkungen zu minimieren und die Wirkung zu maximieren. Die Modelle hierfür haben eine geometrische Basis und berücksichtigen den Strahlungstransport. Hier geht es um die Abschwächung und Auffächerung in Interaktion mit Haut und inneren Organen. Die Therapie an und für sich ist schon stark digitalisiert. Jede Krebstherapie startet mit einem CT-Bild. Basierend darauf wird ein digitales Patientenmodel entwickelt und segmentiert, um den Tumor abzugrenzen. Das Abgrenzen des Tumors leisten hauptsächlich die Mediziner, Methoden der automatischen Bilderkennung halten hier nur sehr langsam Einzug. Anschließend wird entschieden: Wo soll bestrahlt werden und wo soll möglichst viel Energie absorbiert werden - gleichzeitg aber auch: Wo muss man vorsichtig sein (z.B. Herz, Speiseröhre, Niere, Rektum usw.). Anschließend wird dann simuliert, wie Strahlung auf das digitale Modell des Patienten wirkt. Man kann die Dosis und die zeitliche, räumliche Verteilung der Strahlung variieren und optimieren. Das führt auf eine patientenspezifische Optimierung der Dosis-Gabe, die nur für häufig auftretende Tumore gut standardisierbar und automatisierbar ist. Zeitlich hat sich bewährt, dass die Strahlung über 30 Tage in 6 Wochen verteilt verabreicht wird, da sich gesundes Gewebe so besser von der Strahlungsbelastung erholen kann. Aber viele Probleme bleiben offen: Unter anderem können Patienten nicht ganz still halten, sondern müssen beispielsweise atmen. Deshalb bewegt sich der Tumor während der Bestrahlung. Der momentane Ausweg ist, dass man ein größeres Volumen rings um den Tumor markiert. Eine bessere Variante wäre, wenn die Strahlung nur eingeschaltet ist, sobald der Tumor im optimalen Fenster ist oder wenn der Strahl der Tumorbewegung folgt. Dadurch würden die Nebenwirkungen stark verringert. An solchen Fragen forscht Marks Gruppe bevor nach ausführlichen Qualitätssicherungsmaßnahmen derartige Neuerungen zur Standardbehandlung werden. Bestrahlungshard- und Software werden zusammen entwickelt und mit vorhandener Bildgebung integriert. Auch diese Tools müssen verbessert werden, um immer genauer zu werden. Der kranke Mensch ändert sich über den langen Behandlungszeitraum von bis zu 6 Wochen oft sehr stark und der Tumor erst recht. Es wäre also denkbar, den Bestrahlungsplan wöchentlich oder sogar täglich zu aktualisieren. Mark hat in Heidelberg Physik studiert und promoviert und leitet eine Nachwuchsgruppe. N. Wahl, P. Hennig, H.-P. Wieser, M. Bangert: Smooth animations of the probabilistic analog to worst case dose distribution, https://github.com/becker89/ESTRO2018 Literatur und weiterführende Informationen M. Bangert, P. Ziegenhain: Bestrahlungsplanung In: W. Schlegel e.a. (eds.): Medizinische Physik, Springer 2018. H. Gabrys e.a.: Design and selection of machine learning methods using radiomics and dosiomics for NTCP modeling of xerostomia, Frontiers in Oncology, Mar 5;8:35, 2018. doi: 10.3389/fonc.2018.00035. J. Unkelbach e.a.: Optimization of combined proton–photon treatments, Radiotherapy and Oncology, 128(1):133-138, 2018. doi: 10.1016/j.radonc.2017.12.031. Podcasts L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Resonator-Podcast 015: DKFZ-Forscher Christof von Kalle, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2013. Resonator-Podcast 014: Das DKFZ in Heidelberg, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2013. Resonator-Podcast 069: Krebsmythen, Resonator-Podcast von Holger Klein/Helmholtz-Gemeinschaft, 2015.
4/5/2019 • 43 minutes, 58 seconds
Gravitationslose Strömung
Gudrun ist zu Besuch an der ETH in Zürich und spricht dort mit Laura Keller. Laura hat an der ETH Mathematik und theoretische Physik studiert und wurde dort auch promoviert. Anschließend forschte und unterrichtete sie jeweils einige Jahre in Münster, Lausanne und Luzern. Heute arbeitet sie als Senior Scientist an Strömungsmodellen, wie sie in Anwendungen in der Biologie, z.B. im menschlichen Körper vorkommen. Hier gibt es ganz unterschiedliche biologische und medizinische Fragen. Bekanntlich enthält der menschliche Körper viel Wasser. Die Bewegung von Blut oder Gehirnflüssigkeit ist aber nicht wie die von Wasser, sondern u.a. durch im Fluid gelöste Zellen mitbestimmt, die mit der Flüssigkeit in unterschiedlich breiten Gefäßen transportiert werden. Auch Tumorwachstum lässt sich mit solchen Gleichungen studieren. Wenn man eine konkrete Frage im Blick hat, muss man als nächstes entscheiden, was man genau erreichen will: braucht man ein Modell, mit dem man Beobachtungen im Prinzip nachvollziehen kann oder muss es ein Modell sein, das kalibriert ist und möglichst genau experimentelle Daten abbildet und Prognosen geben kann? Im Einzelnen heißt das zu entscheiden, welche Effekte sind wichtig und werden in das Modell einbezogen? Beispielsweise kann man für eine partikelbehaftete Strömung sowohl Partikel als auch die Strömung gleichzeitig vollständig modellieren oder man homogenisiert beide zu einer Flüssigkeit mit Eigenschaften, die so ungefähr die wichtigen Eigenschaften der Mischung hat. Klassisch nimmt man hier gern Oldroyd-B-Modelle für Partikelströmungen, da sie sowohl ein elastisches als auch ein viskoses Strömungsverhalten zeigen. Sind gelöste Zellen aber solche Partikel oder nicht? Ein denkbarer Zugang, biologische in Flüssigkeit gelagerte Zellen zu untersuchen wäre es auch, mit den unterschiedlichen Dichten als Hauptinformation zu arbeiten. Es ist nicht so klar, wohin man am sinnvollsten vom Standardmodell abweicht, um die Modelle realitätsnäher zu machen. Laura kommt aus der geometrischen Analysis und macht deshalb besonders gern die Arbeiten zur prinzipiellen mathematischen Absicherung von Modellen. D.h. sie beweist in ihren Arbeiten Existenz, Eindeutigkeit und Regularität von Lösungen der sehr nichtlinearen Gleichungssysteme. Mathematisch ist es immer hilfreich, wenn man im Modell bestimmte Struktureigenschaften wie Symmetrie oder Energieminima ausnutzen kann. Ein wichtiges Thema sind für sie Strömungen ohne Gravitation. Im Experiment kann man z.B. einen horizontalen Zylinder betrachten und durch eine Drehbewegung um die Symmetrieachse die mittlere Gravitation zum verschwinden bringen. Die publikumswirksamen Anwendungen sind hier Probleme mit Muskeln und Bandscheiben im Weltall. Allerdings sind physiologische Befunde für bettlägerige Personen ähnlich wie die für Personen im Weltall, denn denen fehlt der für ihren Bewegungsapparat wichtige Wechsel zur Gravitationsrichtung über den Verlauf des Tages hinweg. Gudrun und Laura lassen den Blick über unterschiedliche Themenfelder und Aufgaben in der biologischen Mathematik für ganz verschiedene mathematische Felder schweifen und sind sich schließlich einig, dass es auf dem Gebiet für unterschiedlichste mathematische Techniken noch sehr viele spannende ungelöste Fragen gibt. Außerdem finden sie es wichtig, eine Arbeitskultur zu schaffen, in der jede/r mit Fragen willkommen ist- sowohl für die Studierenden als auch im Kollegium. Literatur und weiterführende Informationen L.G.A. Keller: Homogenization and concentrated capacity for the heat equation with two kinds of microstructures: Uniform cases. Annali di Matematica Pura ed Applicata 196(3), 791-818, 2017. https://people.math.ethz.ch/~triviere/pdf/pub/keller-mondino-riviere-22-05-13.pdfL. Keller e.a.:Embedded surfaces of arbitrary genus minimizing the Willmore energy under isoperimetric constraint] Arch. Ration. Mech. Anal. 212, 645-682, 2014. L.Tartar: The General Theory of Homogenization: A Personalized Introduction. Springer, Heidelberg, 2009. Podcasts X. Liao, G. Thäter: Nonhomogenous Fluids, Gespräch im Modellansatz Podcast, Folge 189, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. M. E. Rognes, G. Thäter: Cerebral Fluid Flow, Gespräch im Modellansatz Podcast, Folge 134, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Khrabustovskyi, G. Thäter: Homogenization, Gespräch im Modellansatz Podcast, Folge 116, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
3/21/2019 • 1 hour, 59 seconds
Methan
Gudrun traf sich im Februar 2019 mit Jennifer Schröter und Christian Scharun vom Institut für Meteorologie und Klimaforschung - Atmosphärische Spurengase und Fernerkundung zum Gespräch. Christian, Sebastian und Gudrun waren auf dem ersten Treffen des MATHSEE-Methodenbereichs Mathematische Modellbildung, Differentialgleichungen, Numerik, Simulation ins Gespräch gekommen und hatten ein baldiges Podcastgespräch verabredet. Christian holte noch seine Kollegin Jennifer ins Boot und im Februar 2019 saßen die drei (ohne Sebastian) in Gudruns Büro, um sich über die Weiterentwicklung von Klimamodellen zu unterhalten. Das Wetter und das Klima werden durch Vorgänge in der Erdatmosphäre in der Kopplung mit Wärme- und Wassertransport in den Ozeanen bestimmt. Auch der Mensch hat darauf einen Einfluss. Zum ersten Mal wurde das wahrscheinlich durch die Entstehung des Ozon-Loches ins breite Bewußtsein geholt. Im Projekt, für das Christian arbeitet, geht es u.a. darum, mit einem Computermodell nachzubilden, inwieweit austretendes Methan (ein Spurengas, das z.B. an Erdgas-Bohrlöchern auftritt) einen Einfluss auf die Entwicklung des Klimas nehmen kann. Grundlage hierfür sind sehr genaue Messungen und die Weiterentwicklung des Computermodells. Im Modell werden Strömungs-, Strahlungs- und chemische Prozesse berücksichtigt. Es wird in enger Zusammenarbeit mit dem Deutschen Wetterdienst (DWD), dem Max-Planck-Institut für Meteorologie Hamburg (MPI-M) und dem Deutschen Klimarechenzentrum (DKRZ) entwickelt. Das Modell wird zur täglichen Wettervorhersage wie auch Klimaprognosen verwendet. Die Gruppe Globale Modellierung MOD des IMK-ASF fügt ein Modul zur Simulation der atmosphärischen Chemie vom Boden bis in die mittlere Atmosphäre hinzu. Das Thema ist in sich fächerübergreifend, weil physikalische und chemische Prozesse verstanden werden müssen und auf den modernsten Großcomputern simuliert werden. Christian hat sein Lehramtsstudium mit dem ersten Staatsexamen für die Fächer Geographie und Mathematik abgeschlossen. Jennifer ist promovierte Physikerin und seit einigen Jahren Hauptenwicklerin für chemische Prozesse in ICON-ART. Als ein wichtiges Produkt der Arbeit der Gruppe sieht sie auch an, Daten, die bei der Berechnung entstehen, der Öffentlichkeit in einer nutzbaren Art zur Verfügung zu stellen. In den Punkten der Modellentwicklung, Performanceverbesserung und Bereitstellung von Forschungsdaten arbeitet sie mit dem Rechenzentrum des KITs, dem Steinbuch Center for Computing eng zusammen. Literatur und weiterführende Informationen J. Schröter et al.: ICON-ART 2.1: a flexible tracer framework and its application for composition studies in numerical weather forecasting and climate simulations, Geoscientific model development 11, 4043–4068, 2018. Helmholtz-Projekt Digital Earth Podcasts S. Hemri, G. Thäter: Ensemblevorhersagen, Gespräch im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. N. Vercauteren, S. Ritterbusch: Lokale Turbulenzen, Gespräch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Wendisch, M. Voelter: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. B. Weinzierl, T. Pritlove: Die Atmosphäre, Raumzeit Podcast, Metaebene Personal Media, 2011.
3/7/2019 • 51 minutes, 48 seconds
Nutzerkomfort
Gudrun unterhält sich in dieser Episode mit Marcel Schweiker. Marcel arbeitet in der KIT-Fakultät für Architektur im Fachgebiet Bauphysik & Technischer Ausbau. Die Gruppe schlägt in ihren Themen Brücken zum Bauingenieurwesen, dem Maschinenbau und der Psychologie. Sie interessieren sich für Lösungen im Neubau und Bestand, die langfristig hohen Nutzungskomfort mit niedriger Umwelt- und Ressourcenbelastung verbinden. Marcel hat Architektur in Kassel studiert und sich dabei mehr und mehr für die Rolle des Menschen im umbauten Raum interessiert. Deshalb hat er das Architekturstudium durch ein Ergänzungsstudium Technik-, Wirkungs- und Innovationsmanagement abgerundet. Parallel hat er noch ein Zusatzstudium Energie und Umwelt absolviert und ist zertifizierter Gebäudeenergieberater. Im Anschluss hat er sich für eine Promotion in Japan entschieden. An der Tokyo City University (Laboratory for Built Environmental Research) wurde er 2010 in Umweltinformationswissenschaften promoviert. Seitdem ist er am KIT tätig und hat sich inzwischen auch hier habilitiert. Ein schönes Anschauungsobjekt für die Themen des Gespräches ist das 2015 bezogene Kollegiengebäude Mathematik. Der erste Sommer im Haus begann nämlich schon mit dem Einzug im April 2015. Damals hatte man sich erhofft, mit den nötigen Beschattungsmaßnahmen für das Atrium noch etwas Zeit zu haben und das Gebäude bezogen, obwohl die Technik noch nicht funktionierte. In mehreren Schritten sind inzwischen die geplanten Maßnahmen für die Lüftung und Beschattung des Gebäudes im Wesentlichen in Betrieb gegangen und zeigen sich als durchaus geeignet, einen Komfort auch im Sommer zu ermöglichen. Trotzdem hat an dem sehr sonnigen Februartag des Gespräches, die niedrig stehende Sonne das Büro sehr aufgeheizt. Im Sommer sorgt die Regelung der Außenbeschattung rechtzeitig für Verdunklung - im Winter hätte Gudrun selbst vor der Mittagspause für Beschattung sorgen müssen, um das zu vermeiden. Schon sind Marcel und Gudrun mitten im Gespräch über das für und wider von Kontrolle durch zentrale Modelle oder durch die Personen im Raum. Ein Forschungsergebnis ist dass, die empfundene Kontrolle sich auf das thermische Empfinden der Personen auswirkt. Ob man ein Fenster prinzipiell öffnen kann oder nicht hat Einfluss auf thermische Zufriedenheit. Solche Experimente werden z.B. im Raumklimateststand LOBSTER der Arbeitsgruppe durchgeführt. Dort werden experimentelle Studien durchgeführt, während derer die Studienteilnehmer*innen unter unterschiedlichen Temperatur- und Lichtbedingungen arbeiten. Es werden dabei auch physiologische Reaktionen des Körpers gemessen. Der Teststand hat eine etwa 10mx10m große Grundfläche und enthält zwei Büroräume. Es ist eine Temperaturregelung über alle Wände (inkl. Decke und Boden) möglich. So ist es auch möglich, Bedingungen außerhalb der Norm zu untersuchen. Man weiß, dass sich der menschliche Körper an warme Temperaturen anpassen kann. Überhaupt ist die Wahrnehmung der Temperatur relativ und nicht absolut. Meist unbemerkt wird die Körperkerntemperatur durch Veränderung des Blutflusses vom Körperkern zur Peripherie des Körpers konstant gehalten. Zusammen mit Physiologen und Psychologen hat Marcel eine Metastudie abgeschlossen, welche Einflussgrößen zu individuellen Unterschieden in der Temperaturwahrnehmung führen. Ein Aspekt war hierbei auch, inwieweit sich das Wärmeempfinden von Frauen und Männern unterscheidet. Frauen tendieren zwar dazu sich etwas kühler zu fühlen, aber in einem Bereich von etwa 75% zeigen Frauen und Männern keinen großen Unterschied. Die Untersuchungen der Arbeitsgruppe können helfen, auch ohne aktive Kühlung Gebäude thermisch komfortabel zu gestalten. Auch für die Zukunft, wenn die Temperaturen in Deutschland weiter steigen werden. Prinzipiell sind Großraumbüros zwar schwierig für alle Nutzer gleichzeitig komfortabel thermisch zu beherrschen, gleichzeitig wird untersucht, inwieweit neueste Technik es ermöglicht eine lokale Steuerung der Temperaturen über die Stühle oder Luftauslässe am Schreibtisch zu realisieren, um den individuellen Bedürfnissen von Personen gerecht zu werden. In den Modellen, die Marcel und seine Kolleginnen benutzen, werden Gleichungen für Blutfluss vom Körperkern zur Peripherie benutzt. Außerdem wird sowohl die Strahlungswärme als auch die Konvektion vom Körper betrachtet. Sie werden in Computerprogrammen gelöst, die typischerweise auch Rückwirkungsschleifen enthalten. Zusätzlich braucht es statistische Modelle, die helfen, die experimentellen Daten zu ordnen und zu interpretieren. In naher Zukunft soll auch die Kopplung von thermischen, akustischen und visuellen Anteilen an der Gesamtzufriedenheit gleichzeitig betrachtet werden können. Literatur und weiterführende Informationen M. Schweiker e.a.: Drivers of diversity in human thermal perception – A review for holistic comfort models Temperature, 1–35, 2018. doi:10.1080/23328940.2018.1534490 M. Schweiker e.a.: comf: Functions for Thermal Comfort Research Programme, 2017. M. Schweiker & A. Wagner: The effect of occupancy on perceived control, neutral temperature, and behavioral patterns Energy and buildings 117, 246-259, 2016. doi: 10.1016/j.enbuild.2015.10.051 M. Schweiker & A. Wagner: A framework for an adaptive thermal heat balance model (ATHB) Building and environment 94, 252-262, 2015. doi: 10.1016/j.buildenv.2015.08.018 Podcasts M. Rösler, G. Thäter: Raumklima, Gespräch im Modellansatz Podcast, Folge 143, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
3/1/2019 • 1 hour, 5 minutes, 32 seconds
Portrait of Science
Gudrun met Magdalena Gonciarz in Dresden. They sat down in a very quiet Coffeeshop in Dreikönigskirche and talked about their experiences as scientists giving science an image. Magda started Portrait of science in 2016 with two objectives: to show that science is a process with many contributors at all carreer levels and to have a get-away from a demanding PhD-project, to express her creativity and have tangible results. The person who pointed Gudrun in Magda's direction is Lennart Hilbert, a former co-worker of Magda in Dresden who is now working at KIT on Computational Architectures in the Cell Nucleus (he will be a podcast guest very soon). On the Portrait of Science page one can find photographs of people from Dresden's Life Science campus. Apart from the photographs, one can also find their stories. How and why did they become scientists? What do they do, what are they passionate about? Magda invites us: "Forget the tubes and Erlenmeyer flasks. Science is only as good as the people who do it. So sit back, scroll down and get to know them looking through the lens of Magdalena Gonciarz. Have you ever wondered what kind of people scientists are? Would you like to know what are they working on? What drives and motivates them - spending days in the basement without the sun? Portrait of Science project aims at uncovering more about people who contribute to science at all levels - Research Group Leaders, Postdocs, PhD Students, Staff Scientists and Technicians. All of them are vital for progress of scientific research and all of them are passionate people with their own motivations." When she started the Portrait of Science project, Magda challenged herself to take more pictures. She wanted to show the real people behind science and their personality. This was a creative task, quite different from her work as scientist - done with comparably little time. On top of taking the pictures, interviewees were asked to fill out a questionaire to accompany the story told by the photographs. Surprisingly, the stories told by her co-workers turned out to be quite inspiring. The stories told have shown the passion and the diverse motivations. People mentioned their failures as well. There were stories about accidents and their crucial role in carreers, about coincidence of finding a fascinating book or the right mentor - even as far back as in early childhood sometimes. Sharing ups and downs and the experience that there is a light at the end of the tunnel was a story she needed and which was worth to be shared. Knowing how hard scientific work can be, and how multiple friends and colleagues struggled more than she herself, Magda still strongly feels that it is useful to show that this is not a private and unique experience, but probably a part of the life of every scientist. This struggle can be overcome with time, effort, and help. Magda comes from Poland. During her Master's studies, she had an opportunity to do a research placement at the University of Virginia. During that time she felt welcomed as part of a scientific community in which she wanted to stay. It was a natural decision to proceed with a PhD. She applied to the very prestigious Dresden International Graduate School for Biomedicine and Bioengineering and joined the biological research on proteins and their modifications in the lab of Jörg Mansfeld. After finishing her project, she decided to leave academia. Since 2018 she works for a learning and training agency CAST PHARMA and is involved in producing e-Learning solutions for pharmaceutical companies. Magda also talked a bit about her PhD research. As we all know, genes code for proteins. However, one protein can exist in multiple different forms with multiple varying functions. A protein can be post-translationallly modified, i.e., modified after it is created in order to e.g., be relocated, have different interaction partners or become activated or destroyed in a manner of minutes. Recently, modern methods such as mass spectrometry, made it possible to see the multitude of post-translationally modified forms of proteins and allowed further research with the use of biochemistry or imaging techniques to gain insight into functions of these modifications, e.g., at different stages of the cell life. Gudrun and Magda also talked about the challenge to make a broader audience understand what the particular research topic is all about. It is hard to refer to things we cannot see. It is often easier for people with more translatable research to connect it to various diseases, e.g., cancer but still creates a challenge for those working with more basic issues such as developmental biology. What Magda took from her time in academia is much more than her results and her part in the basic research story. She feels that curiosity and quick learning skills are her superpowers. She is able to become familiar with any topic in a short amount of time. She can manage multiple parts of a project. Also she learned resilience and how to deal with challenges and failures on a daily basis, which can prove to be helpful in all areas of life. At the moment, she is still making plans whether to continue the Portrait of Science in the future, maybe in a changed format. Podcasts A. Leßmöllmann: Wissenschaftskommunikation, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 130, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. C. Rojas-Molian: Rage of the Blackboard, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 121, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
2/22/2019 • 1 hour, 6 minutes, 20 seconds
Fluglotsen
Gudrun spricht in dieser Episode mit Colin Bretl und Niko Wilhelm. Beide sind zur Zeit des Gespräches Bachelorstudenten am Karlsruher Institut für Technologie (KIT). Colin studiert Mathematik und Niko Informatik. Bevor sie sich für ein Studium am KIT entschieden haben, hatten sie an der Dualen Hochschule Karlsruhe (DHBW) ein Bachelorstudium Wirtschaftsinformatik abgeschlossen. Die beiden haben im Wintersemester 2018/19 an Gudruns Vorlesung Modellbildung teilgenommen. Wie schon in unserer ersten Podcastepisode besprochen wurde, gehört zum Programm der Vorlesung, dass die Studierenden sich in Gruppen finden, selbst ein Projekt suchen und bearbeiten. Colin und Niko haben die Arbeit von Fluglotsen betrachtet. Sie haben modelliert, wie die anfliegenden Flugzeuge am besten auf die Landebahn zugeteilt werden. Am Beispiel des Flughafens Heathrow (mit Daten vom 1. August 2018) wurde ihr erstelltes Modell getestet. Als mathematische Methode haben sie hierfür Warteschlangentheorie augewählt. Die beiden haben das Modell selbst erarbeitet, es programmiert und eine Ausarbeitung angefertigt. Die Podcastepisode zeigt, wie und warum sie ihr Problem gewählt haben und welche Schritte zum Erfolg (oder auch zum Misserfolg) geführt haben. Die Überwachung einer Flugbewegung durch Fluglotsen findet z.B beim Landeanflug auf einen Zielflughafen statt. Wollen mehrere Luftfahrzeuge in einem kurzen Zeitraum nacheinander landen, gehört es zu den Aufgaben des Lotsen, diese Reihenfolge festzulegen. Infolgedessen werden den einzelnen Luftfahrzeugführern Streckenanweisungen mitgeteilt (bspw. ob diese einmal oder mehrfach ein Warteschleife fliegen sollen). Im trivialen Fall, dass zwischen zwei ankommenden Luftfahrzeugen genug Zeit liegt, kann jedes Luftfahrzeug auf möglichst direktem Weg zur Landebahn geführt werden. Der Durchsatz, also wie viele Luftfahrzeuge in einem Zeitintervall landen können, ist in diesem Fall optimal. Bei hohem Verkehrsaufkommen gestaltet sich die Überwachung durch Fluglotsen schwieriger. Es müssen nicht nur Sicherheitsabstände zwischen den Luftfahrzeugen eingehalten werden, sondern auch physikalische Besonderheiten des Luftverkehrs und technische Restriktionen berücksichtigt werden. Diese wirken sich negativ auf den Durchsatz aus. Außerdem erschweren die Rahmenbedingungen eine mathematische Untersuchung. Im Projekt von Colin und Niko wird die Problemstellung nur für Flugzeuge, die durch Radar identifiziert werden können, betrachtet. Darunter fallen u.a. große Passagiermaschinen, wie sie an internationalen Verkehrsflughäfen vorzufinden ist. Solche Flugzeuge machen den größten Anteil an kontrollierten Flugbewegungen aus. Mit Hilfe des mathematischen Modells sollen die Grundlagen dafür geschaffen werden, verschiedene Lotsen-Strategien auf ihren Durchsatz hin zu untersuchen. Es konzentriert sich dabei zunächst auf das Standardanflugverfahren bei hohem Verkehrsaufkommen und geht davon aus, dass Flugzeuge in der Reihenfolge ihrer Ankunft landen dürfen. Wenn eine Landung nicht unmittelbar eingeleitet werden kann, müssen die Flugzeuge Standard-Warteschleifen fliegen. Die Warteschleife ermöglicht es, die Mindestgeschwindigkeit zum Fliegen aufrecht zu erhalten. Prinzipiell kreist ein Flugzeug in einer Warteschleife über einem festen Punkt. Mehrere Flugzeuge können in unterschiedlicher Höhe dieselbe Warteschleife nutzen. Für den Datensatz von Heathrow am 1. August 2018 stellte sich heraus: Zu Spitzenzeiten kommen 50 Flugzeuge pro Stunde an. In diesem Fall ist das System nicht stabil. Das bedeutet, die Lastspitze könnte im Modell nicht dauerhaft durchgehalten werden. Stabilität ist bei 38 Flugzeugen pro Stunde gerade noch so gegeben. Nach dem mathematischen Modell könnte der Flughafen Heathrow also 38 Flugzeuge pro Stunde abarbeiten, was fast dem Mittelwert über alle Anflüge am 1.8. 2018 zwischen 06:00 und 23:00 etwa entspricht (das waren im Datensatz 39,1). Literatur und weiterführende Informationen C. Bretl & N. Wilhelm: Modellierung ankommender Flugzeuge - Beschreibung mithilfe von Warteschlangen am Beispiel des Flughafens London Heathrow, 2019. J. Reichmuth and P. Berster: Past and Future Developments of the Global Air Traffic. in: M. Kaltschmitt & U. Neuling (Eds.): Biokerosene - Status and Prospects, Springer, 2018. https://doi.org/10.1007/978-3-662-53065-8_2 K.-H. Waldmann and U. M. Stocker: Stochastische Modelle - Eine anwendungsorientierte Einführung. 2nd ed. Springer, 2013. D. Baum: Grundlagen der Warteschlangentheorie. Springer, 2013. F. Shortle et al.: Fundamentals of Queueing Theory. Wiley, 2018 ICAO: Doc. 4444 Air Traffic Management, 2016. Podcasts G. Thäter, S. Ritterbusch: Mathematische Modellbildung, Gespräch im Modellansatz Podcast, Folge 1, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S. Müller, T. Pritlove: Ziviler Luftverkehr, CRE 211, Metaebene Personal Media, 2016.
2/7/2019 • 1 hour, 2 minutes, 54 seconds
MINToring
Gudrun ist zu Gast bei der Gleichstellungsbeauftragten der FU in Berlin, um über ihr MINToring-Projekt zu reden. Das ist seit einiger Zeit eine Einladung an Schülerinnen zum Einstieg in die Physik und Informatik. Das Projekt entwickelte dafür eine Reihe von Angeboten, nämlich: alle 2 Wochen werden verschiedene Workshops an der FU veranstaltet (ab der 7. Klasse); es werden Betriebspraktika in den Fachbereichen Physik und Informatik vermittelt und begleitet (ab der 9.Klasse); Tage an der Uni im Herbst, in denen man in Vorlesungen der Informatik, Physik und Bioinformatik hineinschnuppern kann Workshops an den Schulen Gudrun spricht außer mit der Frauenbeauftragten Mechthild Koreuber (Mathematikerin, promoviert in Wissenschaftsgeschichte) auch mit den beiden Koordinatorinnen des MINToring-Projekts Anette Dietrich (Koordinatorin Mathematik und Informatik) und Audrey Houillon (Koordination Physik). Audrey hat in München Physik studiert und in Paris am CNRS im Gebiet Neurowissenschaften promoviert. Das ist ein interdisziplinäres Forschungsthema zwischen Physik, Informatik, Psychologie und Biologie. An der TU Berlin hat sie eine Zeit als Postdoc im Gebiet computational Neuroscience gearbeitet und ist dann in die Jugend- und politische Bildung gewechselt bevor sie die Koordinationsstelle an der FU übernahm. Anette ist am Institut für Informatik, hat in Erziehungswissenschaften über Geschlechter- und in der Rassismusforschung promoviert. Ausgangspunkt für die Projektidee war für Mechthild eine Erfahrung am Rande der Abiturfeier ihrer Tochter. Aus einem Physik Leistungskurs mit 50% Mädchen wollte damals keines Physik studieren oder hatte dies als Möglichkeit auch nur in Erwägung gezogen. Wieso? Sie dachte darüber nach, wie kann man junge Frauen und Mädchen motivieren, sich für diese Fächer zu entscheiden und konkret etwas gegen den niedrigen Frauenanteil in den MINT-Fächern tun? Sie stellte sich dabei zunächst ein Projekt vor, dass interessierte Mädchen in der Abiturstufe anspricht. Interesse würde sich z.B. über die Teilnahme an Leistungskursen herausfinden lassen. Das ist aber leider z.B. in der Informatik nicht durchführbar. weil es dort fast keine Leistungskurse gibt. Außerdem wurde schnell klar, dass man schon mit jüngeren Schülerinnen beginnen sollte, um den Übergang zu den Aktionen am Girls'day zu sichern, wo die FU für Schülerinnen der Klassenstufen 5-10 jährlich etwa 1000 Plätze in ungefähr 80 kleinen Gruppen anbietet. Ein zentrales und einzigartiges Werkzeug im MINToring Projekt ist die Möglichkeit zum Betriebspraktikum an der FU. So ein Praktikum ist in der 9. oder 10. Klasse für 2-3 Wochen für alle Berliner Schüler vorgesehen. Manche intessieren sich auch für ein freiwilliges Praktikum in den Sommerferien. Es ist unüblich, so ein Praktikum an einer Universität durchzuführen. Vor allem aus dem Grund, dass sich wenige Menschen vorstellen können, dass das geht. Das Projekt MINTOring bietet aber hierfür einen Rahmen und kann Schülerinnen deshalb direkt dafür einladen. Den Rahmen bilden Einführungskurse und andere Workshops (wie z.B. für Programmiersprachen) für eine kleine Gruppe Schülerinnen und ein Abschlussvortrag mit ausführlicher Auswertung und Einordnung der Erfahrungen. Zentral ist die Forschungsarbeit in den Arbeitsgruppen (2-5 Tage) im individuellen Zuschnitt auf das Interesse jeder Schülerin. In der Zeit erleben sich die Mädchen selbst als kompetent und ihre Arbeit würd wertgeschätzt. Das Feedback der Schülerinnen war bisher stets sehr positiv. Sie schätzen am Praktikum, dass sie neues gelernt haben, Erfahrung mit Forschung sammeln durften und in der Gruppe erlebt haben, dass sie mit ihren Interessen willkommen sind und geschätzt werden. Dazu kommen ganz besondere Erlebnisse, wie dass sich eine Professorin für sie ganz persönlich interessiert und im Kontakt bleiben möchte, was in Summe zu einer sehr emotionalen Erfahrung führt, die in Erinnerungen bleibt. Für so eine erfolgreiche Arbeit musste natürlich Skepsis überwunden werden. Es ist inzwischen leichter, Ideen für altersgerechte Forschungsprojekte zu finden, nachdem es viele gelungen Beispiele gibt. Trotzdem ist nach wie vor ein großer Anteil an Arbeitszeit für die Koordination des Projekts dadurch gebunden, dass Arbeitsgruppen für Schülerinnen gefunden werden. Es ist schön, wenn inzwischen auch schon Arbeitsgruppen auf das Projekt zukommen, die durch Kritik am schlechten Frauenanteil dazu gedrängt werden, selbst auch aktiv zu werden. Konkrete Projekte aus der jüngsten Vergangenheit sind: die Umsetzung eines Needleman-Wunsch-Algorithmus am Computer. Das ist ein Optimierungsalgorithmus aus der Bioinformatik, der zum Vergleich zweier Nukleotid- bzw. Aminosäuresequenzen eingesetzt wird. ein Bio-Informatik-Projekt, wo in enger Zusammenarbeit mit dem Juniorprofessor ein Datensatz zu Krebstumoren mit der Programmiersprache R analysiert wurde. Aber auch einen Betrag liefern zu können, um ein kaputtes Mikroskop zu reparieren, ändert das Verständnis davon, wie Forschung gemacht wird. Wenn Erwachsene sagen: Ich weiß das nicht, ich muss erst probieren, um eine Lösung zu finden, dann hinterlässt das einen Eindruck. Inzwischen gibt es tatsächlich schon mehr Interessentinnen für ein Praktikum, als aufgenommen werden können. Das Projekt wurde zuerst durch das Professorinnenprogramm und später durch das Chancengleichheitsprogramm finanziert. Inzwischen werden statt dieser Drittmittel Haushaltsmittel der FU eingesetzt. In der Zukunft wäre es wichtig, dass die Finanzierung der Koordinierungsstellen auf Dauer von der FU Berlin sichergestellt wird und sich auch andere Universitäten ein Beispiel nehmen. Eine Erweiterung auf andere Fächer ist auch im Moment schon in Arbeit. Zusätzlich zu dieser Art von Projekten muss sich in der Gesellschaft noch einiges ändern. In anderen Ländern ist es viel selbstverständlicher, dass Frauen in technische Fächer gehen. Es ist erstaunlich, wie stark das Selbstbewußtsein schon leidet, wenn die Entscheidung für ein MINT-Fach ständig durch die Umgebung in Frage gestellt wird. Hier wäre mehr Ermutigung in der Schule ein guter Anfang. Podcasts A. Sage, L. Schenk, G. Thäter: Studienbotschafterinnen, Gespräch im Modellansatz Podcast, Folge 194, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2019. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Mischau, M. Koreuber: Gender und Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 142, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. M. Jungbauer-Gans: Frauen in der Wissenschaft – Gleiche Chancen, Ungleiche Voraussetzungen? Zentrum für Gender Studies und feministische Zukunftsforschung, Podcast Kombinat, Universität Marburg, 2016. E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
1/31/2019 • 50 minutes, 7 seconds
Studienbotschafterinnen
Als Technische Universität ist das Karlsruher Institut für Technologie (KIT) vor allem ein Lernort für junge Männer. Der Anteil von Frauen in den technischen Fächern ist in Deutschland seit vielen Jahren weit von 50% entfernt und es gibt ganz unterschiedliche Ideen, wie man mehr Studentinnen "ins Boot holen" kann. Am KIT erproben wir seit dem Jahr 2018 die Entsendung von Studienbotschafterinnen an Schulen. Sie gestalten dort zwei Unterrichtsstunden mit einem spannenden Thema aus der Mathematik oder Physik und stehen anschließend für Fragen zur Verfügung über alles, was mit dem Studium im Allgemeinen und dem Studium am KIT im Besonderen zu tun hat. Bisher wurden (im Rahmen dieses Programms) über 50 Schulen und über 1000 Schüler besucht (Stand Ende 2018). Für die Mathematik sind Alina Sage und Lea Schenk unterwegs. Alina studiert Technomathematik am KIT und Lea hat Mathe und Chemie für das Lehramt am Gymnasium studiert. Sie macht jetzt noch einen Masterabschluss in Mathematik. In der Episode schildern beide ihre persönlichen Erfahrungen mit ihrer Rolle als Studienbotschafterin und mit dem Mathematik-Studium am KIT. Literatur und weiterführende Informationen Artikel im Weinheimer Boten Schülerlabor Mathematik Schülerlabor Physik Schülerlabor Geophysik Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. S. Schäfer, I. Häuser, G. Thäter: Schülermarketing, Gespräch im Modellansatz Podcast, Folge 191, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
1/17/2019 • 33 minutes, 56 seconds
Risikoentscheidungen
Gudrun hat sich im Spätsommer 2018 zum dritten Mal mit Oliver Beige (@oliverbeige) in Berlin verabredet. Oliver beschäftigt sich unter anderem mit mathematischen Modellen für ökonomische Prozesse und hat neben der wissenschaftlichen Expertise auch sehr unterschiedliche praktische Erfahrungen. Der Plan für das Gespräch war, sich über Baysean Updates zu unterhalten. Kurz gesagt ist das ist eine Möglichkeit, bessere Entscheidungen mit wenigen und unsicheren Informationen zu treffen. Der Name beschreibt schon die zentrale Idee: Der Satz von Bayes wird verwendet, um die Wahrscheinlichkeit für eine Hypothese neu zu berechnen, wenn mehr Informationen verfügbar werden. Entscheidungen unter unsicheren Informationen muss man selbst im Alltag und für die eigene Zukunft ständig treffen, weshalb sich die Hörerschaft sicher gut vorstellen kann, dass dies eigentlich eine fast unlösbare Aufgabe ist. Für Unternehmen geht es in der mittleren und Langzeitplanung darum, das Potential von Mitarbeitern und von Ideen richtig einzuschätzen. Lässt sich ein Produkt mit den eigenen Mitteln zur Marktreife entwickeln und wie wird der Markt in 5-30 Jahren dafür aussehen? Vor allem wenn es um einen Markt geht, den es noch gar nicht gibt. Ein Beispiel hierfür ist automatisiertes Fahren. Die Idee gibt es schon seit etwa 30 Jahren und auch Schritte in der Entwicklung, aber bis heute gibt es noch nichts auf dem Markt. Schon Anfang der 1990er Jahre gab es große Erwartungen, was neuronale Netze und Machine Learning hier bald leisten werden, aber diese Begeisterung war um die Jahrtausendwende schon wieder erloschen. Heute erleben die Ideen eine Renaissance, denn es gibt nun viele Daten, genug Rechenpower und ein Zusammenwirken von Statistik und Informatik ist so endlich möglich. Damals wie heute stellt sich aber die Frage: Wie viel Geld und andere Ressourcen sollte man einsetzen und zu welchem Zeitpunkt endgültig entscheiden, sich ganz hinter das neue Produkt zu stellen oder die Pläne ad acda zu legen. Der Versuch, hierfür Modelle zu finden, die alle Zweige und Eventualitäten nachbilden ist nicht sinnvoll umsetzbar, weil zu viele Informationen geschätzt werden müssen und je weiter in die Zukunft geplant werden muss, desto unwägbarer sind Zahlenwerte hierfür. Deshalb ist es bessser, hier mit einfachen Modellen zu arbeiten, die sich gut anwenden lassen, aber auch nur Teile von Entscheidungsprozessen vereinfachen. Ein Beispiel hierfür ist das Baysean updating. Experten wissen einiges, sind aber nicht perfekt - vor allem wegen unvollständiger Information. Mit Hilfe von Wahrscheinlichkeitsrechnung läßt sich berechnen, was der Beitrag der Experten sein kann und ob sie nützlich sind. Hierzu werden gut testbare Annahmen gut ausformuliert und am Markt getestet in einzelnen Entscheidungsstufen. Die Kosten für den Test werden möglichst niedrig gehalten. Anschließend weiß man z.B., welches für Kunden das wichtigstes Feature ist und kann dies zuerst entwickeln (Minimal Viable Product) - die anderen erst später. Oliver ist Karlsruher Wirtschaftingenieur und hat diese über Wettbewerb in Netzwerken in den USA promoviert, an der UC Berkeley nahe am Silicon Valley, zu Zeiten des dot-com Booms. In Deutschland wird solche Forschung meist im Unternehmen gemacht. In den USA gibt es neben dieser Forschung in Unternehmen auch noch sogenanntes Venture Capital. Die Investoren erwarten nicht, dass alle unterstützten Ideen am Ende Profit bringen - man weiß, dass die meisten Ideen zu nichts führen. Es reichen im Verlauf einiger Jahre nur wenige durchschlagende Ideen mit einem riesigen Profit, um das System interessant zu machen. Kurz gesagt gibt es damit einen Marktplatz für Ideen. Heute gibt es das auch als sogenannte Gründerszene in Deutschland (besonders in Berlin) aber noch längst nicht in dem Umfang wie in den USA. Das Gespräch dreht sich in weiten Kreisen und behandelt neben Mathematik und ökonomischen Entscheidungen auch interessante Beispiele aus 30 Jahren. Außerdem verlieren sie sich in unterschiedlichsten Fragen rings um neue Techniken, die auch einbeziehen, wie sich die Rolle von Autos für die Gesellschaft ändert und ändern muss und wie der rechtliche Rahmen für den Austausch von Informationen zwischen Fahrzeugen geregelt werden müsste. Es ist eine schreckliche Vorstellung, wenn Autos für Hackerangriffe anfällig sind. Anscheinend ist es aber nach wie vor so, dass wir eher bereit sind, mit menschlichen Fehlern zu leben als mit Fehlern, die Algorithmen machen, obwohl autonom fahrende Fahrzeuge wohl viele Tote und verletzte Personen vermeiden könnten. Literatur und weiterführende Informationen Wikipedia: Expected value of sample information C. Howson & P. Urbach: Scientific Reasoning: The Bayesian Approach (3rd ed.). Open Court Publishing Company. ISBN 978-0-8126-9578-6, 2005. A.Gelman e.a.: Bayesian Data Analysis Third Edition. Chapman and Hall/CRC. ISBN 978-1-4398-4095-5, 2013. Yu, Angela: Introduction to Bayesian Decision Theory cogsci.ucsd.edu, 2013. Devin Soni: Introduction to Bayesian Networks, 2015. Oliver Beige: The 4P's of Silicon Valley Risk Capital, ein Tweetstorm, 2018. G. Nuti, L. Rugama, A.-I. Cross: Efficient Bayesian Decision Tree Algorithm, arXiv:1901.03214 stat.ML, 2019. Podcasts B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle O. Beige, G. Thäter: Wahlprognosemodelle, Gespräch im Modellansatz Podcast, Folge 149, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/wahlprognosemodelle O. Beige, G. Thäter: Mikroökonomik, Gespräch im Modellansatz Podcast, Folge 140, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/mikrooekonomik
1/11/2019 • 45 minutes, 18 seconds
Noether-Theorem
Gudrun spricht mit Markus Pössel in Heidelberg. Er ist Physiker und leitet das Haus der Astronomie auf dem Königstuhl dort. Gudrun und Markus kennen sich schon lange aus der Ferne. Sie haben sich auf twitter über Themen ausgetauscht, die mit Wissenschaftskommunikation verbunden sind. Anlass für ein tiefergehendes Gespräches war, dass Markus eine wissenschaftliche Arbeit veröffentlicht hat, in der er einen elementaren Zugang zum ersten Noether Theorem beschreibt mit Hilfe von zwei Beispielen. Kurz nach dem sehr erfolgreichen Experiment #noethember, wo im November 2018 ein Monat lang Emmy Noethers Leben und Forschung in unterschiedlichster Weise erinnert wurde, ist diese Podcastepisode ein etwas verspäteter Beitrag. Markus widmet sich in seiner wissenschaftlichen Arbeit elementaren Zugängen zu faszinierenden physikalischen Themen. Persönlich interessiert er sich dabei insbesondere für die Allgemeine Relativitätstheorie, und insbesondere für deren Anwendungen in der Astrophysik. Dafür ist das Haus der Astronomie als gemeinschaftliche Einrichtung der Max Planck Gesellschaft und der Klaus Tschira Stiftung (mit der Universität und der Stadt Heidelberg als weiteren Partnern) ein geeignetes Dach, denn es wurde dafür gegründet, astronomische Forschung für alle Bevölkerungsschichten erfahrbar zu machen. Der Einstieg in astronomische Themen funktioniert oft gut über Phänomene, die an der Intuition rütteln oder interessante Extreme von Theorien sind. Auch wenn Astronomie selten zum Schulstoff gehört, spricht es Schülerinnen und Schüler direkt an. Dass das Interesse an Astronomie gross ist, zeigt z.B. die ROSE-Studie. Deswegen bietet Astronomie einen so guten Einstieg in MINT-Fächer. Die Wissenschaftler in Heidelberg kommunizieren gern. Jeden zweiten Donnerstag im Monat findet die Vorlesungsreihe Faszination Astronomie über aktuelle Forschungsergbnisse statt. Es gibt außerdem sogenante MPI-Outreach Fellows, die sich besonders für Bildungs-und Öffentlichkeitsarbeit interessieren. Sie werden weitergebildet und in die tägliche Arbeit eingebunden. Neben den regelmäßigen Vorträgen gibt es auch ganz besondere Veranstaltungen wie zuletzt im November mit dem Klangforum Heidelberg, wo es zur Musik eine interaktive Planetariumsvorführung gab. Es werden ständig Fortbildungen für Physiklehrer und -lehrerinnen organisiert. Auch für Grundschullehrkräfte gibt es in Zusammenarbeit mit der Forscherstation der Klaus Tschira Stiftung Programme, um zu sie zu Ansprechpartnern für die natürliche Neugier der Kinder zu machen. Auch die Studierenden, die sich an der Universität Heidelberg als Physiklehrer ausbilden lassen führt ein mehrwöchiger Kompaktkurs ins Haus der Astronomie. Darüber hinaus arbeiten immer einmal wieder Praktikanten im Haus der Astronomie und Markus betreut wissenschaftliche Abschlussarbeiten. Im Moment ist es oft im Themengebiet der Kosmologie zusammen mit dem MPI für Astronomie nebenan, z.B.in der Auswertung der Illustris-Simulationen. In diesem Computerexperiment wird das Universum von der Urknallphase bis heute erforscht. Neben den Hochglanzthemen wie Sterne und Raumfahrt gibt es aber auch andere Themen, die kommuniziert werden sollten, weil sie in der Physik einen wichtigen Platz haben. Ein Beispiel hierfür sind die zwei Noether-Theoreme. Im ersten wird das extrem allgemeines Resultat formuliert, dass die Existenz von Symmetrie der Existenz einer Erhaltungsgröße entspricht. Es lässt sich noch relativ einfach formulieren und inhaltlich nachvollziehen, aber man braucht sehr tief liegende Mathematik, um das Ergebnis zu beweisen und wirklich zu verstehen, wo der Knackpunkt liegt, der diese Beziehung zwischen Symmetrie und Erhaltungsgrößen greifbar macht. Markus hat in seiner Arbeit zwei Beispiele angeführt, für die man die expliziten Lösungen der Bewegungsgleichungen kennt. Das hilft, in konkreten und elementaren Rechnungen den Zusammenhang von Symmetrie und Energieerhaltung zu sehen. Das erste Beispiel ist die Bewegung im (konstanten) Schwerefeld, das zweite der harmonischer Oszillator. Die Grundidee ist, dass eine Verschiebung des Anfangszeitpunktes bei den Berechnungen die Bahn des Körper nicht ändert. Wenn man zwei unterschiedliche Anfangszustände vergleicht, führt der Koeffizientenvergleich auf Gleichungen, die genau der Energieerhaltung entsprechen (konkret bleibt Summe aus potentieller und kinetischer Energie konstant). Beim harmonischen Oszillator braucht man zusätzlich noch trigonometrische Formeln. Markus wünscht sich noch mehr Zeit dafür, die Materialen konsistenter zu sammeln und aufzubereiten....und wer sich für Weltraum interessiert, sollte DLR_next auf Twitter folgen! Sneak preview: unseren @mpoessel könnt ihr in Kürze im Podcast @modellansatz hören. Mit Themen von @HdAstro und #wisskomm bis zu Emmy Noether! pic.twitter.com/zcSduq9Ke6— Haus der Astronomie (@HdAstro) 13. Dezember 2018 Literatur und weiterführende Informationen Praktikanten (intl. Sommerpraktikum 2017) haben ihr Projekt - Simulation von Galaxien-Kollisionen - zusammengeschrieben, und es ist jetzt auf arXiv Allgemeine Relativitätstheorie allgemeinverständlich - eines von Markus Pössels Projekten zum Einsteinjahr 2005: M. Pössel: Energy conservation in explicit solutions as a simple illustration of Noether's theorem, Am. J. Phys., in press M. Pössel: Relatively complicated? Using models to teach general relativity at different levels Informationen über die Forscherstation Klaus-Tschira-Kompetenzzentrum für frühe naturwissenschaftliche Bildung: Informationen zu Praktika für Schüler*innen im Haus der Astronomie: Informationen zu Bachelorarbeiten am Haus der Astronomie Projekt Raum für Bildung zur Horizons-Mission von Alexander Gerst (gemeinsam mit DLR und Joachim Herz Stiftung) http://scienceblogs.de/hier-wohnen-drachen/2011/05/22/der-schonste-satz-der-klassischen-physik/ A: Irwin: Astronomers have an outsize passion for outreach nature, 26 November 2018 Olbers Paradoxon Podcasts F. Freistetter: Emmy Noether und die Erhaltungssätze der Physik, Sternengeschichten Podcast Folge 182, 2016. E. P. Fischer: Emmy Noether, Die Entdeckungen großer Forscher, BR Podcast, 2013.
1/3/2019 • 52 minutes, 42 seconds
Schülermarketing
Gudrun spricht mit Sebastian Schäfer und Isabel Häuser von der KIT-Fakultät für Informatik. Ihre Aufgabe dort ist die Öffentlichkeitsarbeit. Der persönliche Kontakt hatte sich durch die gemeinsame Arbeit in einem Gremium des KIT ergeben, wo Ideen entwickelt werden, wie mehr junge Frauen für ein Studium am KIT gewonnen werden können. Das Podastgespräch fasst das Thema etwas allgemeiner und beleuchtet das derzeitige Schülermarketing an der Informatik am KIT und wie es sich über die letzten Jahre entwickelt hat. Die KIT-Fakultät für Informatik hat seit den frühen 2000ern eine eigene Stelle für Öffentlichkeitsarbeit. Seit 2009 wurden in diesem Rahmen besondere Anstrengungen unternommen, um Schülerinnen und Schüler strategisch für ein Informatikstudium am KIT zu werben. Diese Aktivitäten werden unter dem Namen Schülermarketing zusammengefaßt. Da es in den Jahren 2005-2008 einen Einbruch der Anfängerzahlen gegeben hatte, wollte man gezielter als bisher die jungen Leute ansprechen und informieren, um die Studierendenzahlen dadurch zu steigern. Seitdem wurden die diesbezüglichen Aktivitäten deutlich ausgebaut und es gibt nicht nur eine verantwortliche Person, sondern ein Team. Zur Zeit sind das Sebastian und Isabel, die direkt mit Rückendeckung von Geschäftsführung und Fakultätsvorstand arbeiten. Sie bringen dafür ihr Kommunikations-Know-how mit, das sie in einem geisteswissenschaftlichen Studium erworben haben. Tatsächlich lohnt sich diese Arbeit, denn die Einschreibezahlen haben sich seit 2009 mehr als verdoppelt. Ein wichtiges Werkzeug für Information nach innen wie außen und für den ersten Eindruck sind die Informationsseiten der Website. Deshalb nimmt deren Pflege und Weiterentwicklung eine wichtige Rolle in der täglichen Arbeit ein. Außerdem die traditionellen Schüler-Outreach-Formate am KIT wie Teilnahme an Berufsinformationsmessen, viele Aktionen zum Girls' Day, Uni für Einsteiger und das Anbieten von Schnupperkursen. Hier geht es in der Abteilung vor allem um die Kommunikation und Koordination aber auch um die Entwicklung (und Durchführung) von Ideen für einzelne Aktionen (wie z.B. Gewinnspiele), die gezielt auf einzelnen Kanälen (Instagram, Facebook und Twitter) laufen und auf die Fakultät aufmerksam machen. Weitere Veranstaltungsformate, die große Resonanz haben, sind die regelmäßigen Sommercamps, aus denen jedes Jahr neue Studierende hervorgehen. Ein bewährtes Instrument sind Give-Aways, mit denen die beiden versuchen, etwas Witziges mit Informatik-Bezug zu verbinden. Hierfür gibt es zum Glück viele Ansatzpunkte. Bisher waren das z.B. Turnbeutel mit verschlüsseltem Text, Pixelbrillen und Cardboards. Aber selbst so konventionelle Geschenke wie Kuli-Serien und Stofftaschen finden auf diesem Weg begeisterte junge Besitzer. Inzwischen gibt es auch spezielle Ansätze, um mehr Frauen für das Studium zu gewinnen - auch weil die Fakultät das Schlusslicht im Frauenanteil am KIT darstellt. Gerechte Bild- und Textsprache sind eine Selbstverständlichkeit und weibliche Rollenmodelle werden aktiv gesucht und gefunden wie z.B. aktuell in einem Video über den Semesterstart. Ein Wunsch für die Zukunft wäre es, noch mehr im Video-Format erarbeiten zu können, um auf Youtube einen stärkeren eigenen Akzent setzen zu können. Literatur und weiterführende Informationen Informationsseiten zum Studium an der KIT-Fakultät für Informatik Youtube-Kanal KIT-Fakultät für Informatik auf Twitter Podcasts E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. B. Böttcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
12/27/2018 • 44 minutes, 35 seconds
Energy Markets
Gudrun Talks to Sema Coşkun who at the moment of the conversation in 2018 is a Post Doc researcher at the University Kaiserslautern in the group of financial mathematics. She constructs models for the behaviour of energy markets. In short the conversation covers the questions How are classical markets modelled? In which way are energy markets different and need new ideas? The seminal work of Black and Scholes (1973) established the modern financial theory. In a Black-Scholes setting, it is assumed that the stock price follows a Geometric Brownian Motion with a constant drift and constant volatility. The stochastic differential equation for the stock price process has an explicit solution. Therefore, it is possible to obtain the price of a European call option in a closed-form formula. Nevertheless, there exist drawbacks of the Black-Scholes assumptions. The most criticized aspect is the constant volatility assumption. It is considered an oversimplification. Several improved models have been introduced to overcome those drawbacks. One significant example of such new models is the Heston stochastic volatility model (Heston, 1993). In this model, volatility is indirectly modeled by a separate mean reverting stochastic process, namely. the Cox-Ingersoll-Ross (CIR) process. The CIR process captures the dynamics of the volatility process well. However, it is not easy to obtain option prices in the Heston model since the model has more complicated dynamics compared to the Black-Scholes model. In financial mathematics, one can use several methods to deal with these problems. In general, various stochastic processes are used to model the behavior of financial phenomena. One can then employ purely stochastic approaches by using the tools from stochastic calculus or probabilistic approaches by using the tools from probability theory. On the other hand, it is also possible to use Partial Differential Equations (the PDE approach). The correspondence between the stochastic problem and its related PDE representation is established by the help of Feynman-Kac theorem. Also in their original paper, Black and Scholes transferred the stochastic representation of the problem into its corresponding PDE, the heat equation. After solving the heat equation, they transformed the solution back into the relevant option price. As a third type of methods, one can employ numerical methods such as Monte Carlo methods. Monte Carlo methods are especially useful to compute the expected value of a random variable. Roughly speaking, instead of examining the probabilistic evolution of this random variable, we focus on the possible outcomes of it. One generates random numbers with the same distribution as the random variable and then we simulate possible outcomes by using those random numbers. Then we replace the expected value of the random variable by taking the arithmetic average of the possible outcomes obtained by the Monte Carlo simulation. The idea of Monte Carlo is simple. However, it takes its strength from two essential theorems, namely Kolmogorov’s strong law of large numbers which ensures convergence of the estimates and the central limit theorem, which refers to the error distribution of our estimates. Electricity markets exhibit certain properties which we do not observe in other markets. Those properties are mainly due to the unique characteristics of the production and consumption of electricity. Most importantly one cannot physically store electricity. This leads to several differences compared to other financial markets. For example, we observe spikes in electricity prices. Spikes refer to sudden upward or downward jumps which are followed by a fast reversion to the mean level. Therefore, electricity prices show extreme variability compared to other commodities or stocks. For example, in stock markets we observe a moderate volatility level ranging between 1% and 1.5%, commodities like crude oil or natural gas have relatively high volatilities ranging between 1.5% and 4% and finally the electricity energy has up to 50% volatility (Weron, 2000). Moreover, electricity prices show strong seasonality which is related to day to day and month to month variations in the electricity consumption. In other words, electricity consumption varies depending on the day of the week and month of the year. Another important property of the electricity prices is that they follow a mean reverting process. Thus, the Ornstein-Uhlenbeck (OU) process which has a Gaussian distribution is widely used to model electricity prices. In order to incorporate the spike behavior of the electricity prices, a jump or a Levy component is merged into the OU process. These models are known as generalized OU processes (Barndorff-Nielsen & Shephard, 2001; Benth, Kallsen & Meyer-Brandis, 2007). There exist several models to capture those properties of electricity prices. For example, structural models which are based on the equilibrium of supply and demand (Barlow, 2002), Markov jump diffusion models which combine the OU process with pure jump diffusions (Geman & Roncoroni, 2006), regime-switching models which aim to distinguish the base and spike regimes of the electricity prices and finally the multi-factor models which have a deterministic component for seasonality, a mean reverting process for the base signal and a jump or Levy process for spikes (Meyer-Brandis & Tankov, 2008). The German electricity market is one of the largest in Europe. The energy strategy of Germany follows the objective to phase out the nuclear power plants by 2021 and gradually introduce renewable energy ressources. For electricity production, the share of renewable ressources will increase up to 80% by 2050. The introduction of renewable ressources brings also some challenges for electricity trading. For example, the forecast errors regarding the electricity production might cause high risk for market participants. However, the developed market structure of Germany is designed to reduce this risk as much as possible. There are two main electricity spot price markets where the market participants can trade electricity. The first one is the day-ahead market in which the trading takes place around noon on the day before the delivery. In this market, the trades are based on auctions. The second one is the intraday market in which the trading starts at 3pm on the day before the delivery and continues up until 30 minutes before the delivery. Intraday market allows continuous trading of electricity which indeed helps the market participants to adjust their positions more precisely in the market by reducing the forecast errors. References S. Coskun and R. Korn: Pricing Barrier Options in the Heston Model Using the Heath-Platen estimator. Monte Carlo Methods and Applications. 24 (1) 29-42, 2018. S. Coskun: Application of the Heath–Platen Estimator in Pricing Barrier and Bond Options. PhD thesis, Department of Mathematics, University of Kaiserslautern, Germany, 2017. S. Desmettre and R. Korn: 10 Computationally challenging problems in Finance. FPGA Based Accelerators for Financial Applications, Springer, Heidelberg, 1–32, 2015. F. Black and M. Scholes: The pricing of options and corporate liabilities. The Journal of Political Economy, 81(3):637-654, 1973. S.L. Heston: A closed-form solution for options with stochastic volatility with applications to bond and currency options. The Review of Financial Studies, 6(2):327–343, 1993. R. Korn, E. Korn and G. Kroisandt: Monte Carlo Methods and Models in Finance and Insurance. Chapman & Hall/CRC Financ. Math. Ser., CRC Press, Boca Raton, 2010. P. Glasserman, Monte Carlo Methods in Financial Engineering. Stochastic Modelling and Applied Probability, Appl. Math. (New York) 53, Springer, New York, 2004. M.T. Barlow: A diffusion model for electricity prices. Mathematical Finance, 12(4):287-298, 2002. O.E. Barndorff-Nielsen and N. Shephard: Non-Gaussian Ornstein-Uhlenbeck-based models and some of their uses in financial economics. Journal of the Royal Statistical Society B, 63(2):167-241, 2001. H. Geman and A. Roncoroni: Understanding the fine structure of electricity prices. The Journal of Business, 79(3):1225-1261, 2006. T. Meyer-Brandis and P. Tankov: Multi-factor jump-diffusion models of electricity prices. International Journal of Theoretical and Applied Finance, 11(5):503-528, 2008. R. Weron: Energy price risk management. Physica A, 285(1-2):127–134, 2000. Podcasts G. Thäter, M. Hofmanová: Turbulence, conversation in the Modellansatz Podcast, episode 155, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2018. http://modellansatz.de/turbulence G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/wasserstofftankstellen S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm K. Cindric, G. Thäter: Kaufverhalten, Gespräch im Modellansatz Podcast, Folge 45, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/kaufverhalten V. Riess, G. Thäter: Gasspeicher, Gespräch im Modellansatz Podcast, Folge 23, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/gasspeicher F. Schueth, T. Pritlove: Energieforschung, Episode 12 im Forschergeist Podcast, Stifterverband/Metaebene, 2015. https://forschergeist.de/podcast/fg012-energieforschung/
12/21/2018 • 1 hour, 5 minutes
Nonhomogenous Fluids
In this episode Gudrun talks with her new colleague Xian Liao. In November 2018 Xian has been appointed as Junior Professor (with tenure track) at the KIT-Faculty of Mathematics. She belongs to the Institute of Analysis and works in the group Nonlinear Partial Differential Equations. She is very much interested in Dispersive Partial Differential Equations. These equations model, e.g., the behaviour of waves. For that it is a topic very much in the center of the CRC 1173 - Wave phenomena at our faculty. Her mathematical interest was always to better understand the solutions of partial differential equations. But she arrived at dispersive equations through several steps in her carreer. Originally she studied inhomogeneous incompressible fluids. This can for example mean that the fluid is a mixture of materials with different viscosities. If we have a look at the Navier-Stokes equations for materials like water or oil, one main assumption therein is, that the viscosity is a material constant. Nevertheless, the equations modelling their flows are already nonlinear and there are a few serious open questions. Studying flows of inhomogneous materials brings in further difficulties since there occur more and more complex nonlinearities in the equations. It is necessary to develop a frame in which one can characterise the central properties of the solutions and the flow. It turned out that for example finding and working with quantities which remain conserved in the dynamics of the process is a good guiding line - even if the physical meaning of the conserved quantitiy is not always clear. Coming from classical theory we know that it makes a lot of sense to have a look at the conservation of mass, energy and momentum, which translate to conserved quantities as combinations of velocity, its derivatives, pressure and density. Pressure and density are not independent in these simplified models but are independent in the models Xiao studies. In the complex world of inhomogeneous equations we lose the direct concept to translate between physics and mathematics but carry over the knowledge that scale invarance and conservation are central properties of the model. It is interesting to characterize how the complex system develops with a change of properties. To have a simple idea - if it is more developing in the direction of fast flowing air or slow flowing almost solid material. One number which helps to see what types of waves one has to expect is the Mach number. It helps to seperate sound waves from fluid waves. A mathematical/physical question then is to understand the process of letting the Mach number go to zero in the model. It is not that complicated to make this work in the formulae. But the hard work is done in proving that the solutions to the family of systems of PDEs with lower and lower Mach number really tend to the solutions of the derived limit system. For example in order to measure if solutions are similar to each other (i.e. they get nearer and nearer to each other) one needs to find the norms which measure the right properties. Xian was Undergraduate & Master student at the Nanjing University in China from 2004 to 2009, where she was working with Prof. Huicheng Yin on Partial Differential Equations. She succeeded in getting the scholarship from China Scholarship Council and did her PhD within the laboratory LAMA (with Prof. Raphaël Danchin on zero-Mach number system). She was member of the University Paris-Est but followed many master courses in the programs of other Parisian universities as well. In 2013 she spent 8 months at the Charles University in Prague as Postdoc within the research project MORE. There she collaborated with Prof. Eduard Feireisl and Prof. Josef Málek on understanding non-Newtonian fluids better. After that period she returned to China and worked two years at the Academy of Mathematics & Systems Science as Postdoc within the research center NCMIS. With Prof. Ping Zhang she was working on density patch problems. Before her appointment here in Karlsruhe she already returned to Europe. 2016-2018 she was Postdoc at the University Bonn within the CRC 1060. She was mainly working with Prof. Herbert Koch on Gross-Pitaevskii equations - a special topic within dispersive equations. References Short Interview with the CRC 1173 Wave phenomena X. Liao, R. Danchin: On the wellposedness of the full low-Mach number limit system in general Besov spaces. Commun. Contemp. Math.: 14(3), 1250022, 2012. X. Liao: A global existence result for a zero Mach number system. J. Math. Fluid Mech.: 16(1), 77-103, 2014. X. Liao, E. Feireisl and J. Málek: Global weak solutions to a class of non-Newtonian compressible fluids. Math. Methods Appl. Sci.: 38(16), 3482-3494, 2015. X. Liao: On the strong solutions of the nonhomogeneous incompressible Navier-Stokes equations in a thin domain. Differential Integral Equations: 29, 167-182, 2016. X. Liao, P. Zhang: Global regularities of 2-D density patches for viscous inhomogeneous incompressible flow with general density: high regularity case, 2016.
12/13/2018 • 51 minutes, 4 seconds
Inno2Grid
Gudrun talks to Carlos Mauricio Rojas La Rotta. They use a Skype connection since Carlos is in Berlin and Gudrun in Karlsruhe. Carlos is an electrical engineer from Colombia. His first degree is from Pontifcia Universidad Javeriana in Bogotá. For five years now he has been working at Schneider Electric in Berlin. In September 2018 Gudrun met Carlos at the EUREF-Campus in Berlin for discussing the work of Claire Harvey on her Master's thesis. The schedule on that day was very full but Gudrun and Carlos decided to have a Podcast conversation later. Carlos came to Germany as a car enthusiast. Then he got excited about the possibilities of photovoltaic energy production. For that from 2005-2007 he studied in the Carl von Ossietzky Universität in Oldenburg in the PPRE Master course Renewable Energies. When he graduated within a group of about 20 master students they found a world ready for their knowledge. Carlos worked in various topics and in different parts of Germany in the field of renewable energies. Now, at Schneider he has the unique situation, that he can combine all his interests. He develops the most modern cars, which are driving with renewable energy. In the course of his work he is also back at his original love: working with electronics, protocols and data. The work on the EUREF-Campus in Berlin started about 8-10 years ago with more questions than clear ideas. Schneider Electric is a big company with about 150.000 employees all over the world. They deal in all types of software and hardware devices for energy delivery. But the topic for Berlin was completely new: It was a test case how to construct energy sustainable districts. They started out investing in e-mobility with renewable energy and making their own offices a smart building. It is a source of a lot of data telling the story how energy is produced and consumed. At the moment they collect 1GB data per day in the office building on about 12.000 measure points into database and build this as a benchmark to compare it to other scenarios. The next step now is also to find ways to optimize these processes with limited computational possibilities. This is done with open source code on their own interface and at the moment it can optimize in the micro smart grid on the Campus. For example with 40 charging points for e-cars - consumption is planned according to production of energy. On Campus traditional batteries are used to buffer the energy, and also a bus now works on the Campus which can be discharged and is loaded without a cable! One can say: Carlos is working in a big experiment. This does not only cover a lot of new technical solutions. The Energiewende is more than putting photovoltaic and wind power out. We as a society have to change and plan differently - especially concerning mobility. Schneider Electric just started an expansion phase to the whole campus, which has a size of 5.5 ha and 2500 people working there. More than 100 charging point for e-cars will be available very soon. Podcasts C. Harvey, G. Thäter: Micro Grids, Gespräch im Modellansatz Podcast, Folge 186, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018.
12/6/2018 • 35 minutes, 44 seconds
Mensch-Maschine Interaktion
Gudrun war in Weimar an der Bauhaus Universität zu Gast bei Jan Ehlers. Sie haben sich über seine Forschungstätigkeit im Umfeld von Mensch-Maschine Interaktion unterhalten. Jan hat in Bremen Psychologie studiert und dort auch promoviert. Nach einer Zeit an der Universität in Ulm ist er zur Zeit in Weimar als Lehrstuhlinhaber tätig. Gudruns Wunsch war es schon länger, das Thema im Podcast zu haben, denn Mensch-Maschine Interaktion betrifft alle Leute, die irgend etwas mit Computern machen. Dabei war klar, dass dies ein sehr breites Feld ist, wo im Gespräch mit Jan nur einzelne Aspekte vorkommen werden. Darüber hinaus, dass es thematisch breit ist, ist es ein sehr interdisziplinäres Feld, wo zwischen Biologie und Algorithmen als "Extremwerten" sehr unterschiedliches Wissen nötig ist und nur in Zusammenarbeit der Fachgebiete neues entsteht. Jans Fachgebiet ist der "Faktor Mensch". An seiner Arbeit faszinieren ihn viele Dinge, aber besonders, dass es noch so ein junges Feld ist, in den man Pionierarbeit verrichtet. Er hat sich auf kognitive Psychologie spezialisiert und untersucht u.a. wie peripher physiologische Signale (also von der Körperoberfläche abgeleitete Informationen) als Messwerte für psychologische Zustände dienen können. In erster Linie ist das universitäre Grundlagenforschung ohne unmittelbaren Anwendungsbezug. Dahinter stehen aber so fundamentale Fragen wie: Wie wird Aufmerksamkeit generiert? Wie kann man trotz interindividueller Unterschiede Erregungs- oder Aktivierungsniveaus aus solchen objektiv beobachtbaren Größe wie Pupillenbewegung oder Leitfähigkeit der Haut ablesen. Es müssen Größen herangezogen werden, die dem Bewusstsein nicht direkt zugänglich (also leicht manipulierbar) sind. Für die Experimente sind künstliche, hoch kontrollierte Situationen im Labor typisch, weil man ja wissenschaftlich Wirkmechanismen und Kausalbeziehungen beweisen möchte. Im Fachchargon spricht man auch von physiological computing bzw. mental status determination, also der Einschätzung einer psychischen Situation ohne Worte. die auf Selbsteinschätzung beruhen. Ein anschauliches Beispiel ist, dass man an der Blinzelfrequenz ablesen kann, wenn jemand müde wird. Man kann das gut mit Sensoren beobachten und messen und dann einen übermüdeten LKW-Fahrer durch so ein System erkennen und zum Pause machen anhalten. Menschlich ist das allerdings ein wenig brisant, denn wir wollen lieber die Kontrolle behalten und nicht von System Vorschriften gemacht bekommen. Hinzu kommt, dass man solche Systeme auch austricksen kann. Im Labor wird dazu das Biofeedback der Sensoren visualisiert und Probanden können lernen, darüber kognitive Kontrolle zu erhalten. Ein Beispiel hierfür ist die Pupillengröße, die man auf dem Monitor gut als Kreis einer gewissen Größe abbilden kann. Man kann üben, sie willentlich größer oder kleiner zu machen mit Hilfe der Rückmeldung auf dem Bildschirm. Für Forschung mit und über Menschen müssen ethische Prinzipien eingehaltne werden. Es ist apriori ja nicht in Ordnung, wenn man z.B. im Experiment Probanden systematisch anlügt. Trotzdem ist es eine wichtige und interessante Fragestellung, ob man die oben erläuterte Möglichkeit, dass man Einfluss auf eigentlich unbewusste Vorgänge erhalten kann, auch in die andere Richtung ausnutzen kann. Wenn ich einem erregten Probanden Biofeedback auf dem Monitor zeige, dass einer ruhigen Situation entspricht und der Proband dem Feedback glaubt, wird er dann vielleicht ruhig? Literatur und weiterführende Informationen C.Strauch e.a.: Pupil-Assisted Target Selection (PATS), Proceedings of the 16th IFIP TC.13 International Conference on Human-Computer Interaction – INTERACT, Mumbai, India. 2017 J. Ehlers e.a.: Pupil Size Changes as an Active Information Channel for Biofeedback Applications, Applied Psychophysiology and Biofeedback. doi: 10.1007/s10484-016-9335-z. 2016 Steven Fairclough: Physiological Computing E.M. Vingolo, G. Napolitano, S. Fragiotta:Microperimetric biofeedback training: fundamentals, strategies and perspectives Frontiers In Bioscience, Scholar, 10, 48–64, January 1, 2018Podcasts P. Purgathofer, T. Pritlove: Mensch-Maschine Interaktion, CRE Folge 131, Technik Kultur Gesellschaft, Metaebene Personal Media, 2009. P. Dzierzawski, G. Jaworek: Vibrationsbänder, Folge 9 im Neues Terrain Podcast, 2017.
12/2/2018 • 1 hour, 8 minutes, 34 seconds
Micro Grids
Gudrun talks with the Scotish engineer Claire Harvey. After already having finished a Master's degree in Product design engineering at the University of Glasgow for the last two years Claire has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities. She spent her first year in Lisbon at Instituto Superior Técnico (IST) and the second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of her supervisor at KIT while she worked on her Master's thesis at the EUREF Campus in Berlin for the Startup inno2grid. Her study courses prepared her for very diverse work in the sector of renewable energy. Her decision to work with inno2grid in Berlin was based on the fact, that it would help to pave the way towards better solutions for planning micro grids and sustainable districts. Also, she wanted to see an actual micro grid at work. The office building of Schneider Electric, where the Startup inno2grid has its rooms is an experiment delivering data of energy production and consumption while being a usual office building. We will hear more about that in the episode with Carlos Mauricio Rojas La Rotta soon. Micro grids are small scale electrical grid systems where self-sufficient supply is achieved. Therefore, the integration of micro grid design within district planning processes should be developed efficiently. In the planning process of districts with decentralised energy systems, unique and customised design of micro grids is usually required to meet local technical, economical and environmental needs. From a technical standpoint, a detailed understanding of factors such as load use, generation potential and site constraints are needed to correctly and most efficiently design and implement the network. The presence of many different actors and stakeholders contribute to the complexity of the planning process, where varying levels of technical experience and disparate methods of working across teams is commonplace. Large quantities of digital information are required across the whole life-cycle of a planning project, not just to do with energetic planning but also for asset management and monitoring after a micro grid has been implemented. In the design of micro grids, large amounts of data must be gathered, there are initial optimization objectives to be met, and simulating control strategies of a district which are adapted to customer requirements is a critical step. Linking these processes - being able to assemble data as well as communicate the results and interactions of different "layers" of a project to stakeholders are challenges that arise as more cross-sector projects are carried out, with the growing interest in smart grid implementation. Claire's thesis explores tools to assist the planning process for micro grids on the district scale. Using geographical information system (GIS) software, results relating to the energetic planning of a district is linked to geo-referenced data. Layers related to energy planning are implemented - calculating useful parameters and connecting to a database where different stakeholders within a project can contribute. Resource potential, electrical/thermal demand and supply system dimensioning can be calculated, which is beneficial for clients and decision makers to visualize digital information related to a project. Within the open source program QGIS, spatial analysis and optimizations relating to the design of an energy system are performed. As the time dimension is a key part in the planning of the energy supply system of a micro grid, the data is linked to a Python simulation environment where dynamic analysis can be performed, and the results are fed back in to the QGIS project. References T. Benz et al.: Der Zellulare Ansatz. VDE, Energietechnische Gesellschaft, Frankfurt, Germany, 2015. A. Halu et al.: Data-driven modeling of solar-powered urban microgrids. Science Advances 2 (1). DOI:10.1126/sciadv.1500700, 2016. M. Giudice and E. Patti: BIM and GIS for District Modelling Politecnico di Torino, Turin, Italy, 2014. QGIS Ch. Nytsch-Geusen et al.: Sustainable and energy-efficient redevelopment of city quarters - Analytical and planning tools for energy assessment and rehabilitation of urban districts. Universität der Künste, Berlin, 2015. Podcasts Z. Ahamed, G. Thäter: Electric Vehicles on the Grid, Gespräch im Modellansatz Podcast, Folge 183, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, B. Pousinho: Weather Generator, Gespräch im Modellansatz Podcast, Folge 148, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
11/9/2018 • 31 minutes, 56 seconds
Tsunami-Modelle
Man kann zu sozialen Medien unterschiedliche Auffassungen haben. Aber die Wissenschaftspodcaster nutzen das Medium twitter recht aktiv und auch das Karlsruher Institut für Technologie (KIT) bespielt seinen Kanal @KITKarlsruhe so, dass man als Abonnent tatsächlich mancherlei erfährt. Am 7. Oktober wurde z.B. dort weitererzählt, dass Ergebnisse einer Simulation aus dem KIT in einem Artikel der New York Times (vom 2.10. 2018) vorgestellt wurden, der die Auswirkungen des Sulawesi-Erdbebens und des von ihm ausgelöstenTsunamis in Indonesien (vom 29.9.2018) anhand von Luftbildern begreifbar macht. Genauer handelte es sich um Tsunami-Modelle von Andreas Schäfer vom Geophysikalischen Institut und Gudruns Neugier war geweckt. Sie wollte gern genaueres über diese Modelle erfahren. Am 23. Oktober traf sie sich mit dem Bauingenieur und Physiker zum Gespräch. Ebenfalls auf dem twitter-Kanal des KIT hatte Gudrun in der Zwischenzeit erfahren, dass Andreas der Zeitschrift des Deutschen Hochschulverbandes Forschung und Lehre zu seinem Engagement auf Twitter und Facebook Rede und Antwort gestanden hat und auch ein erfahrener Science-Slammer ist. Somit gab es noch viel mehr Gesprächsstoff. Die Aktivität auf twitter sieht z.B. so aus, dass Andreas die Daten eines gemeldeten Erbebens in seine Simulation einspeist und die Auswirkungen berechnet und visualisiert. Das Bild dazu wird anschließend über twitter (und Facebook) an die Leute verteilt, die sich dafür interessieren (die Follower). Hier als Beispiel die Analyse zu dem Erdbeben in Indonesien. Ein kürzlich aufgezeichneter Mitschnitt eines Science-Slam-Beitrags zu Andreas Forschung über Tsunamis ist der Beitrag Talking Tsunami. Im Moment ist Andreas mit mehreren Mitstreitern dabei, ein Startup zu gründen, das Risikoanalysen machen kann Risklayer. Literatur und weiterführende Informationen Center for Disaster Management and Risk Reduction Technology (CEDIM) Forensische Katastrophenanalysen K. Schmermund im Gespräch mit A. Schäfer: Mitdiskutieren oder nicht, Forschung und Lehre, 12.10. 2018. CATnews is a world wide news channel for natural disasters M. Wei-Haas: The Science of Indonesia's Surprise Tsunami, National Geographic vom 1.10.2018 Andreas Schäfer (2018, GPI): Development of a Global Tsunami Risk Model A. Schäfer, J. E. Daniell, F. Wenzel: The smart cluster method: Adaptive earthquake cluster identification and analysis in strong seismic regions. J. Seismol., 21, 965–985, doi:10.1007/s10950-017-9646-4, 2017. A. M. Schäfer, F. Wenzel: TsuPy: Computational robustness in Tsunami hazard modelling. Computers & Geosciences, 102, 148-157., 2017. Podcasts S. Wollherr, G. Thäter: Erdbeben und Optimale Versuchsplanung, Gespräch im Modellansatz Podcast, Folge 012, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. K. Schratz, G. Thäter: Lawinen, Gespräch im Modellansatz Podcast, Folge 015, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. K. Elsen, G. Thäter: Erdrutsche, Gespräch im Modellansatz Podcast, Folge 015, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. S. Wollherr, G. Thäter: Bruchzonen, Gesprächim Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. A. Schäfer, P. Barth, A. Blessing: Tsunamis und Erdbeben, Episode 12 im Kritisches Denken Podcast, 2018.
11/1/2018 • 1 hour, 5 minutes, 21 seconds
Rechenschieber
Wie es kam, dass es kam, dass es so ist, wie es ist, mit dem Rechenschieber. Zu einer gemeinsamen Folge vom damalsTM-Podcast zur Technikgeschichte und dem Modellansatz zur Mathematik trafen sich Prof. Dr. Ralph Pollandt, Stephan Ajuvo und Sebastian Ritterbusch in der Hochschule für angewandte Wissenschaften in Karlsruhe zu diesem mathematisch-technischen Thema aus vergangenen Zeiten. Stephan Ajuvo hatte den Rechenschieber schon länger auf seiner Liste seiner Wunschthemen. Er konnte nach der hackover-Konferenz nach Karlsruhe kommen, wo am 4. Mai 2018 die 9. Lange Nacht der Mathematik stattgefunden hatte, die von Sebastian Ritterbusch moderiert wurde, und wo Ralph Pollandt den Rechenschieber in einem Publikumsvortrag vorgestellt hatte. Die lange Nacht der Mathematik wurde an der damaligen Fachhochschule Karlsruhe im Jahr 2000, dem Weltjahr der Mathematik, gestartet, und fand seither alle zwei Jahre mit sehr großem Besucherandrang statt. Vor Einzug der Taschenrechner, wie beispielsweise dem SchulRechner 1 oder SR1, waren Rechenschieber im Schulbetrieb allgegenwärtig. Es gab unter anderem Typen von Aristo oder von VEB Mantissa Dresden. Die Basis der grundsätzlichen Methode hinter dem Rechenschieber wurde mit dem Beginn der Nutzung von Logarithmentafeln (um 1600) gelegt. In der DDR wurden diese für Schulen vom Verlag Volk und Wissen gedruckt. Sie umfassten neben den Logarithmen auch eine Formelsammlung für Mathematik, Physik und Chemie. Auch die Bordwährung der c-base orientierte sich an der logarithmischen Skala. Ein Weg den Logarithmus einzuführen geht über die Exponentialfunktion, die viele Wachstumsprozesse in der Natur bis zur Sättigung beschreibt. Da diese Entwicklungen oft sehr schnell ansteigen, bietet es sich an, die Werte mit der Umkehrfunktion zu beschreiben, und das ist genau der Logarithmus: Exponentiell ansteigende Werte wie die 2-er Potenzen 1, 2, 4, 8, 16, 32, ..., werden nach Anwendung des Logarithmus Dualis zur Basis 2 linear zu 0, 1, 2, 3, 4, 5, ..., und damit deutlich einfacher zu begreifen. Auch in der Musik werden aus Frequenzen von Tönen nach Anwendung des Logarithmus Dualis ganzzahlig zu Oktaven und im nicht-ganzzahligen Rest zu den Tönen. Für die Nutzung mit Logarithmentafeln und dem Rechenschieber sind die Logarithmenregeln äusserst wichtig: In Logarithmentafeln ist sehr häufig der dekadische Logarithmus zur Basis 10 abgedruckt, da dies bei der Nutzung mit Zahlen im Dezimalsystem sehr hilfreich ist. Dabei wird typisch nur eine Dekade in der Tafel abgedeckt, da höhere Dekaden einfach ganzzahlige Differenzen im Wert darstellen. Da diese Betrachtung außerhalb der Tafeln stattfindet, müssen diese Größenordnungen während der Rechnung mitgeführt und am Ende dem Ergebnis abgerechnet werden. Da Rechenschieber wie gegenüber liegende Lineale sehr einfach addieren können, wird aus der Schieblehre bei Nutzung der Logarithmenregeln ein mächtiges Multiplikationsgerät. Das kann man sich am Selbstbau-Rechenschieber gut vor Augen führen: Der Rechenschieber besteht typischerweise aus einem bedruckten äußeren Körper, einer darin ebenfalls bedruckten beweglichen Zunge und einem oben aufliegenden bis auf Linien transparenten Läufer. Die aufgedruckten Skalen können zum einen einfache logarithmische Skalen für die Multiplikation und Division sein (hier die Skalen C und D über eine Dekade), oder auch ganz andere Funktionen beinhalten, wie für das Bauwesen die Festigkeit, dem Elastizitätsmodul, der Druckfestigkeit oder die Zinseszins-Rechnung. Oft waren wichtige Konstanten wie die Kreiszahl π oder die Lichtgeschwindigkeit c angenähert auf der Rückseite abgedruckt. Für die Bedruckung und Anwendung haben sich verschiedene Systeme etabliert, wie das System Darmstadt, das System Rietz oder Duplexstäbe, es gab aber auch nationale Unterschiede durch Traditionen, Notationen oder Hersteller. Das typische Tischformat hatte eine Länge von rund 30cm, es gab sie aber auch im Taschenformat oder in lebensgroßen 2 Metern, und entsprechendem Gewicht. Ein sehr verbreiteter Rechenschieber in Kreisform ist der Benzin-Rechner: Ein weiterer interessanter Aspekt ist, dass Rechenschieber auch irrationale Konstanten wie die Euler'sche Zahl e, die Kreiszahl π oder einfach Werte der Wurzelfunktion scheinbar exakt auf den analogen Skalen abbilden konnten, und damit einen Analogrechner darstellen. Das Rechnen mit dem Rechenschieber stammt von den Logarithmentafeln ab. Will man die Zahlen 2 und 3 multiplizieren, so kann man die Logarithmen der Zahlen 2 und 3 nachschlagen, das sind bei dem dekadischen Logarithmus auf 3 Stellen die Zahlen 0,3010 und 0,4771. Diese Zahlen werden nun addiert zu 0,7781 und nach umgekehrter Suche findet man als Ergebnis die Zahl, die diesem Logarithmus zugeordnet ist, die Zahl 6. Der Rechenschieber nimmt einem nun das Nachschlagen und Addieren ab, in dem die Skalen C und D logarithmisch aufgetragen sind und die Addition durch das Verschieben der Zunge erfolgt. Die gleiche Rechnung kann man auch mit den Skalen A und B durchführen, die gleich zwei Dekaden von 1-100 abdecken, wenn sie auf dem Schieber zur Verfügung stehen. Rechnet man kombiniert zwischen A und C oder B und D, so kann man gleichzeitig Wurzelziehen oder Quadrieren, muss aber den Läufer verwenden, um die Skalen genau ausrichten zu können. Die Erfindung des Läufers wird Sir Isaac Newton zugeschrieben. Die verschiedenen Skalen ermöglichen die Abbildung fast beliebiger Funktionen, auf fast allen Rechenschieber sind beispielsweise die trigonometrischen Funktionen enthalten, jedoch nur auf eingeschränkten Skalen. Hier muss man entweder die Symmetrieeigenschaften der jeweiligen Funktionen kennen, oder für tiefe Werte besondere Techniken oder Approximationen wie Taylorreihenentwicklungen kennen. Eine Nutzung des Rechenschiebers setzt auch immer die Fähigkeit zur Überschlagsrechnung voraus, bei der man vorab eine Abschätzung zum erwarteten Ergebnis bestimmt. Das bietet einen gewissen Schutz vor Fehlbedienungen, ist aber auch bei der Verwendung von Computern sinnvoll, da es immer wieder zu Fehlern in der Hardware kam, wie beispielsweise beim Pentium-FDIV-Bug, wo Rechnungen schlicht falsch ausgeführt wurden. Nicht nur vermeintlich korrekte Rechenergebnisse können zu Irrtum führen, auch ein blindes Verlassen auf Signifikanztests ist ebenso nicht zielführend, in dem Artikel Why Most Published Research Findings Are False schreibt John P. A. Ioannidis, wieso man sogar beweisen kann, dass inzwischen die meissten solcher Arbeiten auf begrenzten Arbeitsgebieten falsch sein müssen, da sie ihre Abhängigkeit von früheren Arbeiten nicht berücksichtigen. Einen Einblick in die Komplexität der Abschätzung des Treibstoffsverbrauchs bei Flugrouten bekommt man bei Folge 262 und Folge 263 im OmegaTau-Podcast beim Flug nach Hong Kong und zurück. Auch in Folge 291 zum Buschfliegen wird das Thema der Flugplanung berührt. Lange waren runde Rechenschieber zur Berechnung des Treibstoff-Verbrauchs im Flugzeug im Einsatz. Bei der langen Nacht der Mathematik gab es auch eine Ausstellung von Rechenmaschinen, die durch ihre mechanische Bauweise einen sonst verborgenen Einblick in die Rechentechnik liefern. Der angesprochene MegaProzessor zur Visualisierung der Rechentechnik aktueller Prozessoren wurde in FreakShow 222 besprochen und wird im Video zum MegaProzessor vorgestellt. Es gibt regelmäßige Treffen der deutschsprachigen Rechenschieberfreunde, die Rechenschieber-Sammler-Treffen (RST), zuletzt nach Publikation dieser Folge am 20. Oktober 2018 in Bruchsal. Eine interessanter Rechentrick ist die Berechnung von Additionen mit Hilfe von Division und Multiplikation auf dem Rechenschieber. Hier wird der Zusammenhang genutzt. Zur Addition wird damit der Quotient von x und y berechnet, um 1 addiert und wieder mit y multipliziert. Beim Rechnen mit dem logarithmischen Rechenschieber ist eher der relative gegenüber dem absoluten Fehler im Fokus. Genau das gilt auch für die Rechnung in Fließkommazahlen im Computer, wo das logarithmische Rechenstab-Prinzip durch den Exponentialteil zum Teil ebenfalls zu Anwendung kommt. Neben dem dekadischen Logarithmus zur Basis 10, der bei Logarithmentafeln und Rechenschieber zum Einsatz kommt, oder dem Logarithmus Dualis zur Basis 2 aus der Musik oder im Computer, gibt es auch einen natürlichen Logarithmus. Was bedeutet hier natürlich? Der natürliche Logarithmus ist die Umkehrfunktion der Exponentialfunktion, der Potenzfunktion zur Basis e. Diese Funktion hat die Eigenschaft, dass sie als einzige Funktion unter Differenziation, also z.B. der Berechnung von Geschwindigkeit aus Positionen, und Integration, also z.B. der Berechnung von Positionen aus Geschwindigkeiten, unverändert bleibt. Dies kann man sich auch an der Potenzreihenentwicklung der Exponentialfunktion veranschaulichen: Dann ist die Ableitung: Dadurch ist hat die Exponentialfunktion eine große Bedeutung für Modelle und Differenzialgleichungen. Darüber hinaus ist die Exponentialfunktion auch mit den trigonometrischen Funktionen in den komplexen Zahlen direkt miteinander verknüpft: Entsprechend beinhaltet auch der natürliche Logarithmus den Zusammenhang mit Analysis, Numerik und Trigonometrie und kann auf den komplexen Zahlen auch als ewige Spirale dargestellt werden. CC BY-SA 3.0: Leonid 2 In der Kryptographie spielen diskrete Logarithmen eine besondere Rolle, da Potenzfunktionen Kern des RSA-Verfahrens und der elliptischen Kryptographie sind: Im RSA-Verfahren werden Nachrichten auf endlichen Ringen mit einem Schlüssel potenziert, meisst 65537 beim öffentlichen Schlüssel, in der elliptischen Kryptographie wird die Nachricht abschnittsweise in den Exponenten geschrieben und auf einer speziellen elliptischen Kurve berechnet. Auch wenn es zum aktuellen Zeitpunkt noch keine grundsätzliche Lücken in den beiden Verfahren gibt, so ist es wichtig, diese auch korrekt umzusetzen. Ein berüchtigtes Beispiel ist die Perfect Forward Secrecy, die durch fahrlässige Implementationen zur LogJam-Attack führte. Ralph Pollandt hatte in der Polytechnischen Oberschule (POS) in den Klassenstufen 1-8 noch keine Vertiefung in die Mathematik vor Augen. Seine Faszination für Mathematik entstand aus Interesse an Knobelaufgaben in der Erweiterten Oberstufe (EOS) in den Klassen 9-12, wo er die Hochschulreife erlangte, und neben den Optionen zu Naturwissenschaften oder dem Lehramt, sich für das Studium und Promotion in der Mathematik entschied. Nach mehrjähriger ingenieurstechnischer Tätigkeit im Bauwesen, erlangte ihn der Ruf zur Mathematik-Professur an der Hochschule für angewandte Wissenschaften in Karlsruhe, wo er nun reich mit der Erfahrung aus der Anwendung zur Mathematik im Bauingenieurwesen lehrt. Literatur und weiterführende Informationen R. Pollandt: Bastelanleitung Rechenschieber R. Pollandt: Bedienungsanleitung zum Rechenschieber Seite der deutschsprachigen Rechenschieber-Sammler Rechenschieber im Rechnerlexikon, der Enzyklopädie des mechanischen Rechnens Podcasts K. Landzettel, T. Pritlove: Old School Computing, CRE: Technik, Kultur, Gesellschaft, Episode 193, Metaebene Personal Media, 2012. B. Ullmann, M. Völker: Analog Computers, Omega Tau Podcast, Episode 159, Nora Ludewig und Markus Völker, 2014. R. Pollandt, S. Ajuvo, S. Ritterbusch: Rechenschieber, damalsTM Podcast, Episode 58, 2018. J. Müller, S. Ajuvo: Büromaschinen damals, damalsTM Podcast, Episode 50, 2017. K. Leinweber, S. Ajuvo: Taschenrechner, damalsTM Podcast, Episode 37, 2017.
10/25/2018 • 1 hour, 54 minutes, 38 seconds
Electric Vehicles on the Grid
Gudrun talks to Zaheer Ahamed about the influence of an increasing number of Electric vehicles (EV) to the electrical grid. Zaheer just finished the ENTECH Master's program. He started it with his first year at the Karlsruhe Institute for Technology (KIT) and continued in Uppsala University for the second year.Gudrun was part of the grading process of Zaheer's master thesis "Estimating Balancing Capacities of Electric Vehicles on the German and Swedish grids in 2030". The rising awareness of pollution from transport is leading to innovations within the transport sector. At the moment EVs are the leading technology. With many countries Germany and Sweden joined the so-called EV30@30 campaign, aiming for 30% of new vehicles sales to be electric by 2030. These ambitions alongside an ever increasing capacity of variable renewable energy sources (RES) in our power systems, pose a concerning challenge for Transmission systems operators (TSO) to maintain proper power system operation. Imbalances between supply and demand are undesirable in any electrical power system and with the rising popularity of EVs and RES such events are only expected to continue or increase.Fortunately, with the recent development of Vehicle to grid (V2G) concepts as well as extensive studies into the load-shifting potential of EVs, EVs presents an interesting solution for power system balancing distributed energy storage system. Zaheer's study showed that EV are capable of balancing the grid for approximately 60% of the time providing 55-60% of the total balancing energy required. However, the operation also took heavy toll on the EV’s battery performance as it could potentially reduce its life to a 1/7th of its original lifetime. References Commission Regulation (EU) 2017/1485 of 2 August 2017 on establishing a guideline on electricity transmission system operation, 2017. S. Weitemeyer e.a.: Integration of Renewable Energy Sources in future power systems: The role of storage. Renewable Energy, 75 pp.14-20, 2015. D.M.Greenwood e.a.: Frequency response services designed for energy storage. Applied Energy, 203 pp.115-127, 2017. Eurostat Database J. Schäuble e.a.: Generating electric vehicle load profiles from empirical data of three EV fleets in Southwest Germany. Journal of Cleaner Production, 150 pp.253-266, 2017. Podcasts Volker Quaschning, Tim Pritlove: Energiewende, Forschergeist 053, Stifterverband / Metaebene, 2018. V. Auinger, G. Thäter: Optimale Akkuladung, Gespräch im Modellansatz Podcast, Folge 160, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/optimale-akkuladung M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter M. Maier, G. Thäter: Akkumulatoren, Gespräch im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/akkumulatoren D. Schumann, M. Voelter: Elektromobilität, Omega Tau Podcast 163, Makus Völter und Nora Ludewig, 2015. J. Dickmann, S. Ritterbusch: Pumpspeicherkraftwerke, Gespräch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013.
10/19/2018 • 49 minutes, 3 seconds
SimScale
Gudrun talks to Jousef Murad about the computing platform SimScale. Jousef is currently studying mechanical engineering at the Karlsruhe Institute of Technology (KIT) and focuses on turbulence modelling and computational mechanics in his Master's studies. He first learned about the existence of SimScale early in the year 2015 and started as a FEA (finite element analysis) simulation assistant in November 2016. Meanwhile he switched to Community Management and now is Community and Academic Program Manager at the company being responsible for user requests and Formula student teams all over the world. Formula student is a name for design competitions for teams of students constructing racing cars. SimScale is a cloud-based platform that gives instant access to computational fluid dynamics (CFD) and finite element analysis (FEA) simulation technology, helping engineers and designers to easily test performance, optimize durability or improve efficiency of their design. SimScale is accessible from a standard web browser and from any computer, eliminating the hurdles that accompany traditional simulation tools: high installation costs, licensing fees, deployment of high-performance computing hardware, and required updates and maintenance. Via the platform, several state-of-the-art open solvers are made available like,e.g., OpenFOAM and Meshing with SnappyHexMesh. More information about the packages being used can be found at https://www.simscale.com/open-source/ . On top of having easier access to open source software, the connected user forum is very active and helps everybody to enter the field even as a person without experience. Founded in 2012 in Munich (Germany), nowadays SimScale is an integral part of the design validation process for many companies worldwide and individual users. It is mainly used by product designers and engineers working in Architecture, Engineering & Construction or Heating, Ventilation & Air-Conditioning. Also in the Electronics, Consumer Goods and Packaging and Containers industries SimScale is useful for testing and optimizing designs in the early development stages. SimScale offers pricing plans that can be customized, from independent professionals to SMEs and multinational companies. The Community plan makes it possible to use SimScale for free, with 3000 core hours/year using up to 16 cloud computing cores. Simulation around Burj Khalifa using SimScale References Turbulence models on the English Wikipedia S. Pope: Turbulent Flows. Cambridge University Press, 2000. P. Sagaut, C. Cambon: Homogeneous Turbulence Dynamics. Cambridge University Press, 2008. Related Podcasts G. Thäter, M. Hofmanová: Turbulence, Gespräch im Modellansatz Podcast, Folge 155, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. N. Vercauteren, S. Ritterbusch: Lokale Turbulenzen, Gespräch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. P. Allinger, N. Stockelkamp, G. Thäter: Strukturoptimierung, Gespräch im Modellansatz Podcast, Folge 53, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. B.Valsler, D. Ansell: The Science of Turbulence, The Naked Scientists Podcast, 2010.
10/11/2018 • 36 minutes, 44 seconds
Forschendes Lernen
Gudrun war zu Gast an der FU Berlin für ein lange geplantes Gespräch mit Brigitte Lutz-Westphal zum Thema Forschendes Lernen im Mathematikunterricht. Frau Lutz-Westphal ist dort Professorin für Didaktik der Mathematik und in dieser Rolle in die Lehramtsausbildung eingebunden. Ihre Forschung beschäftigt sich mit der Grundlegung einer Theorie zum forschenden Lernen, mit dialogischem Lernen und authentischem sowie inklusivem Mathematikunterricht. Sie ist seit 2010 wissenschaftliche Begleitung des Programms "Mathe.Forscher" der Stiftung Rechnen. Die enge Zusammenarbeit mit der Schulpraxis in diesem Programm hat wichtige Impulse für ihre wissenschaftliche Tätigkeit gegeben. Was zeichnet nun forschendes Lernen aus? Es geht darum, für Schülerinnen und Schüler die Mathematik als von Fragen getriebene Wissenschaft erlebbar zu machen (im Gegensatz zum Einpauken von fest stehenden Lehrsätzen und Regeln). Das erfolgt z.B. über Beobachtungen in handgreiflichen Experimenten, die für die Erlangung von mathematischen Resultaten aktiv erkundet werden müssen. Das ist gleichzeitig ein authentisches Erleben von Mathematik, wie sie in der Forschung betrieben wird, also eine Begegnung mit der Wissenschaft Mathematik, ihren Methoden und Arbeitsweisen. Eine Beschreibung der eigenen forschenden Tätigkeit fällt Mathematiker/innen üblicherweise nicht leicht, diese Metaebene ist für das Forschen ja auch nicht relevant. Aber sie wissen, dass sie Fragen und Vermutungen formulieren aus Erfahrung, Gedankenexperimenten oder einem Bauchgefühl heraus und in Gesprächen im Kollegium, im Auswerten von anderen Arbeiten und im Verwerfen von Hypothesen Stück für Stück neues Wissen finden. Eine derzeit laufende Interviewstudie, die von Prof. Lutz-Westphal betreut wird, soll herausarbeiten, wie man Forschen in der Mathematik präziser charakterisieren kann, um daraus weitere Schlüsse für die authentische didaktische Umsetzung in der Schule zu ziehen Der Ansatz des forschenden Lernens trägt bereits jetzt die wesentlichen Schritte in die Schule: Anregung zum selbstständigen Fragen, Raum für Erkundungen, offen für fächerübergreifende und vorausgreifende Inhalte, Sichtbarmachen der gefundenen mathematischen Erkenntnisse & kritische Auseinandersetzung mit unterschiedlichen Herangehensweisen und Resultaten. Inzwischen gibt es schon viele erprobte Beispiele für forschendes Lernen, die von Lehrpersonen für den eigenen Unterricht übernommen oder adaptiert werden können (siehe www.matheforscher.de) . In unserem Gespräch gehen wir auf die Frage: Wo bitte ist die Mitte? ein. Für komplexe Gebilde, wie z.B. die Geometrie von Deutschland oder anderen Ländern kann man auf unterschiedliche "Mitten" kommen. Und man findet auch Beispiele, wo die Mitte gar nicht im Innern des Gebietes liegt. Solche Unterrichtsideen helfen Schüler/innen, Mathematik nicht nur als festgefügten Wissenskanon, sondern als kreatives Betätigungsfeld zu erleben, in dem flexibles Denken erforderlich ist. Wesentlich für einen Mathematikunterricht, der auf diese Weise gestaltet ist, ist eine Kultur, in der das Fragen stellen und Fehler machen möglich sind und ein produktiver Umgang mit Fehlern gepflegt wird. Es hat sich bewährt, die Schülerinnen und Schüler ein Lern- oder Forschertagebuch führen zu lassen (bzw. je nach Vermögen der Lerngruppe, einen mündlichen Austausch anzuregen), um besser zu verstehen, wie die Lernenden denken, wo konkrete Probleme im Verständnis sind, bzw. welche eigenen Ansätze die Kinder entwickeln. Dieser dialogische Ansatz öffnet den Weg zu einem individuellen Austausch zwischen Lehrkräften und Lernenden und öffnet die Perspektive in Richtung inklusiver Lerngruppen. Ein Unterricht, der Mathematik forschend entwickelt braucht Lehrpersonen mit einem hohen Selbstvertrauen in ihre eigenen mathematischen Fähigkeiten und einer authentischen Begeisterung für das Fach. Damit ergeben sich auch Ziele in der Lehramtsausbildung: Erlangen fachlicher und fachmethodischer Sicherheit, das Kennenlernen moderner Mathematik und aktueller Forschungsthemen, eine tiefe fachdidaktische Durchdringung von mathematischen Themen, und somit übergreifend: die Stärkung des fachlichen Selbstbewusstseins. Nach ihrem Abitur 1990 studierte Brigitte Lutz-Westphal an der Hochschule der Künste und der freien Universität Berlin Schulmusik, Violine und Mathematik und hatte dabei 1994-95 auch einen Studienaufenthalt in Paris als Stipendiatin des Briand-Stresemann Programms. Auf ihr erstes Staatsexamen in Musik und Mathematik folgte ihr Referendariat am Karl-von-Frisch-Gymnasium in Dußlingen und am Wildermuth-Gymnasium in Tübingen. Nach dem zweiten Staatsexamen für die Laufbahn des höheren Schuldienstes an Gymnasium in Musik und Mathematik, wurde sie in Berlin als Musikpädagogin und Nachhilfelehrerin selbstständig tätig und begann mit ihren Arbeiten zum Projekt "Diskrete Mathematik für die Schule". Ab 2002 wurde sie als wissenschaftliche Angestellte am Konrad-Zuse-Zentrum für Informationstechnik durch die Volkswagenstiftung für das Projekt "Diskrete Mathematik in der Schule" gefördert. Ab 2004 war sie als wissenschaftliche Mitarbeiterin an der TU Berlin unter anderem im Projekt "Visualisierung von Algorithmen" des DFG-Forschungszentrums MATHEON tätig. 2006 promovierte sie an der TU Berlin mit ihrer Dissertation zum Thema "Kombinatorische Optimierung - Inhalte und Methoden für einen authentischen Mathematikunterricht" bei Prof. Martin Gröschel, und trat eine Vertretungsstelle einer Juniorprofessur für Mathematikdidaktik an der TU Berlin und wurde Mitglied der "Junior Faculty" der Berlin Mathematical School (BMS). 2008 wurde sie auf die W2-Professur für Mathematik und Didaktik der Hochschule Vechta berufen, und ist seit 2009 als W2 Professorin für Didaktik der Mathematik der Freien Universität Berlin. Seit 2009 ist die Mitherausgeberin der "Mitteilungen der Deutschen Mathematiker Vereinigung" und ist seit 2017 Mitglied des Beirats der Stiftung Rechnen. Literatur und weiterführende Informationen M. Ludwig, B. Lutz-Westphal, C. Benz: Entdeckendes, forschendes und projektartiges Lernen. Best Practice Beispiele aus dem Programm Mathe.Forscher. Stiftung Rechnen, 3. Auflage 2018. (1. Auflage online) P. Linke, B. Lutz-Westphal: Das \"Spot-Modell\" im Mathematikunterricht – forschendes und entdeckendes Lernen fundiert anwenden. In: Beiträge zum Mathematikunterricht. WTM-Verlag. 4 Seiten (in Druck), 2018. M. Ludwig, B. Lutz-Westphal, V. Ulm:Forschendes Lernen im Mathematikunterricht, Mathematische Phänomene aktiv hinterfragen und erforschen. In: Praxis der Mathematik in der Schule Heft 73. S. 2-9, 2017. B. Lutz-Westphal, A. Schulte: Mathematische Forschung – Was Forschendes Lernen im Mathematikunterricht aus der Praxis lernen kann. In: Beiträge zum Mathematikunterricht. WTM-Verlag. S. 1181-1184, 2016. B. Lutz-Westphal: Das forschende Fragen lernen. Pflasterungen: scheinbar Bekanntes neu durchdringen. In: Mathematik lehren Heft 184. S. 16-19, 2014. B. Lutz-Westphal: Mathematik forschend entdecken. In: Stiftung Rechnen (Hg.): Mathe.Forscher. Entdecke Mathematik in deiner Welt. WTM-Verlag Münster, S. 103-112, 2013. B. Lutz-Westphal, K. Skutella: Dialogic learning on a shared theme – approaching inclusive settings in the mathematics classroom. In M. Knigge et al. (Hrsg.) (in Vorbereitung): Inclusive mathematics education. State-of-the-art research from Brazil and Germany. Springer, 2019. S. Hußmann, B. Lutz-Westphal (Hg.):Diskrete Mathematik erleben. Anwendungsbasierte und verstehensorientierte Zugänge. Springer (2. Auflage), 2015. K. Biermann, M. Grötschel, B. Lutz-Westphal, Brigitte (Hg.):Besser als Mathe! Moderne angewandte Mathematik aus dem MATHEON zum Mitmachen. Springer, 2010. Stiftung Rechnen Matheforscher B. Lutz-Westphal: Kinderseite in den Mitteilungen der Deutschen Mathematiker Vereinigung. Podcasts J.-M. Klinge, G. Thäter: Lerntheken, Gespräch im Modellansatz Podcast, Folge 178, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/lerntheken K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp-week G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp B. Bötcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/meisterklasse G.M. Ziegler, G. Thäter: Was ist Mathematik? Gespräch im Modellansatz Podcast, Folge 111, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/was-ist-mathematik A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/lehramtsausbildung E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine C. Spannagel, S. Ritterbusch: Flipped Classroom, Gespräch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom S. Götz, L. Bodingbauer: Schulmathematik, Gespräch im Lob und Tadel Podcast, Sprechkontakt mit Bildung, Folge 19, 2014.
10/4/2018 • 1 hour, 3 minutes, 39 seconds
Hybride Strömungsmodelle
Gudrun ist für die aktuelle Episode zu Gast in der Bundesanstalt für Wasserbau (BAW) am Standort in Karlsruhe. Die BAW ist etwa so alt wie die Bundesrepublik und grob gesagt zuständig für technisch-wissenschaftliche Aufgaben in allen Bereichen des Verkehrswasserbaus an den Bundeswasserstraßen und für Spezialschiffbau. Dabei berät sie die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV). Heute ist der Hauptsitz der BAW in Karlsruhe. Daneben gibt es noch einen Standort in Hamburg. Der Anlass des Besuches ist diesmal der Abschluss der Masterarbeit von Axel Rothert zu einer Fragestellung aus der BAW in Karlsruhe. Der Titel der Arbeit ist "Hybride 2D-3D-Simulation von Strömungsprozessen im Nah- und Fernfeld von Wasserbauwerken in OpenFOAM". Sie entstand in enger Zusammenarbeit mit den Kollegen Dr.-Ing. Carsten Thorenz und Franz Simons im Referat Wasserbauwerke der BAW. Nach dem Abschlussvortrag hat sich Gudrun mit Franz Simons und Axel Rothert über die Ergebnisse der Arbeit unterhalten. Neben traditionellen mathematischen Modellen, die durch physikalische Experimente kalibriert und erprobt werden, haben sich durch den technischen Fortschritt der letzen Jahrzehnte numerische Simulationen inzwischen fest etabliert. Einerseits, um numerische Näherungslösungen für die partiellen Differentialgleichungen des mathematischen Modells zu liefern, andererseits aber auch zur Durchführung virtueller Experimente. Die Simulation von hydrodynamischen Vorgängen ist hier ein gutes Beispiel. Das Fließen von Wasser muss mit Gleichungen beschrieben werden, die wiederum numerische Lösungen brauchen, wobei durch deren Komplexität auch gleich noch Ansprüche an entweder Hochleistungsrechentechnik (und damit Parallelisierung) oder andererseits gut begründete Vereinfachungen erhoben werden müssen. Das ganze muss verlässliche Aussagen liefern, damit die BAW z.B. die Hochwasserneutralität eines Wasserbauwerks garantieren kann bevor es endgültig geplant und gebaut wird. Dabei werden in der dortigen Praxis beide Wege beschritten: man investiert in modernste Rechentechnik und benutzt erprobte Vereinfachungen im Modell. Im Kontext der Umströmung von Wasserbauwerken haben unterschiedliche Regionen verschiedene dominierende Strömungsprozesse: in der Nähe des Bauwerkes gibt es eine starke Interaktion des Fließgewässers mit dem Hindernis, aber in einiger Entfernung kann man diese Interaktion vernachlässigen und den Modellansatz vereinfachen. Deshalb sollten im Nah- und Fernbereich unterschiedliche Modelle benutzt werden. Konkret sind es in der Arbeit die tiefengemittelten Flachwassergleichungen im Fernfeld und die Reynolds-gemittelten Navier- Stokes-Gleichungen (RANS) im Nahfeld der Wasserbauwerke. Wichtig ist dann natürlich, wie diese Modelle gekoppelt werden. Da eine Informationsübertragung sowohl stromaufwärts als auch stromabwärts möglich ist, ist eine Kopplung in beide Richtungen nötig. In der vorliegenden Arbeit wurde eine vorhandene Implementierung eines Mehr-Regionen-Lösers in OpenFOAM der TU München so weiter entwickelt, dass er für die Anwendungen in der BAW geeignet ist. Dafür musste sie auf die aktuell an der BAW verwendete Version von OpenFOAM portiert und anschließend parallelisiert werden, damit praxisnahe Probleme der BAW in sinnvollen Rechenzeiten bewältigt werden können. Außerdem mussten die Implementierungen der Randbedingungen so abgeändert werden, dass allgemeine Geometrien für den Untergrund und ein trocken fallen bzw. benetzen mit Wasser möglich sind. Die Implementierung wurde anhand eines realistischen Beispiels aus dem Verkehrswasserbau bestätigt. Ein etwa 1,1km langer Flussabschnitt wurde hybrid simuliert. Dabei ist ein Staustufe, bestehend aus Wehranlagen, Schleuse und Kraftwerk enthalten. Literatur und weiterführende Informationen Boyer, F. ; Fabrie, P.: Mathematical Tools for the Study of the Incompressible Navier-Stokes Equations and Related Models. New York : Springer-Verlag, 2013 Gerstner, N. ; Belzner, F. ; Thorenz, C.: Simulation of Flood Scenarios with Combined 2D/3D Numerical Models. In: Lehfeldt, R. (Hrsg.) ; Kopmann, R. (Hrsg.): 11th international conference on hydroscience and engineering. Bundesanstalt für Wasserbau, Karlsruhe, 2014 Mintgen, F.: Coupling of Shallow and Non-Shallow Flow Solvers - An Open Source Framework. München, Technische Universität, Diss., 2017 Mintgen, F. ; Manhart, M.: A bi-directional coupling of 2D shallow water and 3D Reynolds-Averaged Navier-Stokes models. 2018. Begutachtet und angenommen vom Journal of Hydraulic Research. Einsehbar: DOI: 10.1080/00221686.2017.1419989 Uijttewaal, W. S.: Hydrodynamics of shallow flows: application to rivers. In: Journal of Hydraulic Research 52 (2014), Nr. 2, S. 157-172 Podcasts R. Kopman, G. Thäter: Wasserstraßen, Gespräch im Modellansatz Podcast, Folge 24, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
9/27/2018 • 34 minutes, 52 seconds
Simulierte Welten
Gudrun traf sich mit Maren Hattebuhr und Kirsten Wohak, die wieder ein interessantes Projekt für Schülerinnen und Schüler vorstellen: Simulierte Welten. Unser Alltag wird immer mehr durch Simulationen mitbestimmt. Bei der Wettervorhersage ist das wahrscheinlich vielen Menschen bewußt, aber auch Autos und andere Maschinen werden mittels Rechnungen am Computer entwickelt oder die Wirksamkeit neuer Medikamente getestet. Auch Risikoanalysen oder Wahlvorhersagen basieren immer stärker auf der Interpretation von Simulationsergebnissen. Schülerinnen und Schüler sollen deshalb die Möglichkeit bekommen, schon früh die Bedeutung von Simulationen besser einzuschätzen und ihre Chancen und Risiken aufgrund fundierten Grundwissens besser bewerten zu können. Das Vorhaben wird vom Steinbuch Centre for Computing (SCC) und dem Höchstleistungsrechenzentrum Stuttgart (HLRS) in Zusammenarbeit mit dem Zentrum für interdisziplinäre Risiko- und Innovationsforschung der Universität Stuttgart (ZIRIUS) getragen und arbeitet mit verschiedenen Schulen in Baden-Württemberg zusammen. Gefördert wird das Projekt vom Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg. Es gibt für Schulen und Personen folgende Möglichkeiten von dem Projekt zu profitieren: Doppelstunden, Projekttage oder Projektwochen für die Schule buchen (Abend-) Vorträge zu sich einladen Exkursionen durchführen Fortbildung für Lehrerinnen und Lehrer am SCC bzw. dem HLRS Förderstipendien für Schülerinnen und Schüler für Simulationsthemen Im Rahmen der Förderstipendien arbeiten die Schülerinnen und Schüler weitgehend selbstständig in Zweierteams an einem echten wissenschaftlichen Projekt an einem der Rechenzentren mit und werden dabei von einer/einem Wissenschaftlerin/Wissenschaftler betreut. Sie erhalten für ihre Arbeiten einen Unkostenbeitrag in Höhe von bis zu 1.000€, welcher für die Anschaffung eines Laptops und anfallende Fahrtkosten gedacht ist. Nach dem erfolgreichen Abschluss des Stipendiums erhalten die Schülerinnen und Schüler zudem ein Zertifikat über ihre Teilnahme. In der aktuellen Förderperiode ist der Anmeldeschluss der 1. Oktober 2018 und folgende Themen können bearbeitet werden: Aerosole - Winzige Partikel mit großer Wirkung Simulation und einfach Analyse von Kollisionsdaten der Hochenergiephysik Einblicke in unseren Körper durch Computertomographie Chemie-Klimasimulationen mit EMAC Simulation von biologischen Zellen Schülerinnen und Schüler sollten folgende Unterlagen bei der Kontaktadresse schriftlich oder elektronisch per E-Mail an CAMMP@SCC.kit.edu einreichen: ausgefüllter Bewerbungsbogen Ein Empfehlungsschreiben einer Lehrkraft von der Schule, die den Schüler/die Schülerin unterstützt und CAMMP als Ansprechpartner zur Verfügung steht. Dieses dient dazu den Schüler/die Schülerin besser kennenzulernen. Zeugniskopie Lebenslauf >Referenzen Alle Informationen zum Förderstipendium am SCC auf einen Blick Direkter Kontakt zum Projekt Simulierte Welten Auswahl an Episoden zu Simulationen B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, S. Krömker: Computergrafik, Gespräch im Modellansatz Podcast, Folge 166, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, M. J. Amtenbrink: Wasserstofftankstellen, Gespräch im Modellansatz Podcast, Folge 163, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Page: Embryonic Patterns, Gespräch im Modellansatz Podcast, Folge 161, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. T. Hoffmann, G. Thäter: Luftspalt, Gespräch im Modellansatz Podcast, Folge 153, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. O. Beige, G. Thäter: Wahlprognosemodelle, Gespräch im Modellansatz Podcast, Folge 149, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Bertozzi, G. Thäter: Crime Prevention, Gespräch im Modellansatz Podcast, Folge 109, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. L. Adlung, G. Thäter, S. Ritterbusch: Systembiologie, Gespräch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
9/13/2018 • 23 minutes, 45 seconds
Lerntheken
Gemeinsam geht vieles besser. Auch deshalb reden wir im Podcast über Mathematik oder darüber wie wir Mathematik lernen bzw. unterrichten möchten. Im Internet setzen sich solche Gespräche manchmal fort. In der Netzgemeinschaft rund um den Podcast hat Gudrun Jan-Martin Klinge gefunden - oder genauer sein Blog Halbtagsblog. Dort finden sich seine Beobachtungen aus dem Alltag als Lehrer für Mathematik, Physik und Arbeitslehre in einer Gesamtschule in Raum Siegen. Dabei mischt sich ganz natürlich privates mit unterschiedlichen beruflichen Aspekten, denn es ist seine persönliche Reflektion über das was gelingt, erzählenswert ist oder bedenkenswert. Schon bald hatte Gudrun den Wunsch, einen Aspekt daraus für den Podcast aufzugreifen, nämlich Jan-Martins ganz praktische Erfahrungen mit Lerntheken. Diese setzt er in der Sekundarstufe 1 vor allem im Mathematikunterricht ein. Wie von Gudrun im Stillen erhofft, war die generelle Bereitschaft zum Gespräch schnell und enthusiastisch erklärt und es musste "nur noch" ein passender Termin gefunden werden, was ein paar Monate dauerte. Aber am 24. August 2018 war es so weit: Gudrun kam am Siegener Hauptbahnhof an und in einem netten Café schräg gegenüber entstand die vorliegende Aufzeichnung. Wie bei allen Konzepten und Methoden gibt es Theorie und Praxis. Die Lerntheke an und für sich ist für Lehrende eine wohlbekanntes und vor allem im Unterricht für junge Schülerinnen und Schüler auch eine gut etablierte offene Unterrichtsform. Für sehr heterogenen Lerngruppen ist ihre größte Stärke, dass qua Konzept alle im eigenen Tempo unterwegs sein können. Und dass nicht nur eine Lehrperson vorn an der Tafel die Rolle hat, alles für alle erklären zu müssen, sondern auch Mitschüler diesen Platz einnehmen können und dabei ihre Hilfe an die Bedürfnisse des Gegenübers recht genau anpassen können. Außerhalb der Primarstufe ist das Konzept in der Praxis an deutschen Schulen jedoch eher in einer Nische zu Hause. Dafür gibt es viele und gut nachvollziehbare Gründe. Andererseits zeigen aber auch solche Beispiele, wie der Alltag in Jan-Martins Unterricht, dass es gut funktioniert. Durch das Beispiel lassen sich andere anstecken, es ähnlich oder genauso auch selbst zu probieren (aktuell hat der Blogbeitrag zu "Was sind Lerntheken" z.B. etwa 150 Antworten). Im Mathematik-Unterricht von Jan-Martin Klinge startet jedes Thema mit zwei bis drei "normalen" Mathematikstunden (also Frontalunterricht) in denen das Thema eingeführt wird. Anschließend arbeiten die Schülerinnen und Schüler einzeln oder in Gruppen mit Karten, auf denen konkrete Rechenaufgaben geübt, Probleme erforscht oder mathematische Spiele gespielt werden. Die Karten haben einen Farbcode, an dem man ablesen kann, ob es sich eher um einfache, mittelschwere oder komplexere Aufgaben handelt. Am Ende jedes Themas sollen die Kinder die mittelschweren Aufgaben bearbeiten können. Aber auch die, bei denen es richtig "Click" gemacht hat, haben genug Material mit dem sie interessantes zum Thema ausprobieren können. Zusätzlich gibt es Karten mit Lernhilfen zu einzelnen Schritten oder Regeln. Auf den Aufgabenkarten ist jeweils vermerkt, welche Hilfskarte weiterhelfen kann. Außerdem gibt es an der Tafel eine Namensliste von Mitschülerinnen und -schülern, die für Nachfragen zur Verfügung stehen. Besonders im Unterricht für die jüngeren Schüler gibt es am Ende jedes Themas noch eine Sicherungsphase. Im Physikunterricht benutzt Jan-Martin Klinge die Lerntheken eher in der Phase, wo gelerntes wiederholt und gefestigt werden soll, da dort die Dichte an neuen Themen größer ist als in der Mathematik. Zusammen mit Kollegen hat Jan-Martin Klinge die Kartensammelung auch übersetzt in andere Sprachen und mit anderen Medien und Anwendungsfällen verbunden. Besonders auf Geräten wie einem iPad ist die Realisierung leicht möglich, weil dort leicht zwischen Sprachen gewechselt werden kann, wenn Schüler in Willkommensklassen das möchten. Dafür gab es sogar 2017 die Auszeichnung mit dem Deutschen Lehrerpreis. Das Projekt ist nicht abgeschlossen und Helfer für möglichst viele Sprachen werden noch mit offenen Armen empfangen. Literatur und weiterführende Informationen J.-M. Klinge: Was sind Lerntheken? Halbtagsblog, 2013. Download von unterschiedlichen Lerntheken J.-M. Klinge und R. Kara: Mit Lerntheken den Mathematikunterricht neu gestalten, ISBN: 978-1520321479, 2017 J.-M. Klinge: Die Physik von Hollywood: Mit aktuellen Kinofilmen Impulse für den Unterricht gewinnen, ISBN 978-1521035474, 2017. Beschreibung des Projektes für den Deutschen Lehrerpreis, 2017. Podcasts K. Wohak, M. Hattebuhr, E. Bastian, C. Beizinger, G. Thäter: CAMMP-Week, Gespräch im Modellansatz Podcast, Folge 174, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp-week G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/cammp B. Bötcher, G. Thäter: Meisterklasse, Gespräch im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/meisterklasse G.M. Ziegler, G. Thäter: Was ist Mathematik? Gespräch im Modellansatz Podcast, Folge 111, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/was-ist-mathematik A. Kirsch, G. Thäter: Lehramtsausbildung, Gespräch im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/lehramtsausbildung E. Dittrich, G. Thäter: Schülerlabor, Gespräch im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor C. Spannagel, S. Ritterbusch: Flipped Classroom, Gespräch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom
9/6/2018 • 54 minutes, 50 seconds
FPGA Seitenkanäle
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf sich Sebastian mit Dennis Gnad, um mit ihm über Seitenangriffe auf Field Programmable Gate Arrays (FPGA) zu sprechen. FPGAs sind veränderliche Computerchips, die hervorragend bei der Entwicklung von logischen Schaltkreisen oder spezieller Glue Logic helfen, und kommen inzwischen auch als Rechenbeschleuniger zum Einsatz. Man kann FPGAs als Vorstufe zu Application-Specific Integrated Circuits (ASIC) sehen, auf denen Strukturen noch viel feiner, für höhere Taktraten und sparsamer abgebildet werden können, das Design aber um Größenordnungen teurer ist. Und während einem ASIC die Funktion ab Werk einbelichtet ist, können FPGAs nahezu beliebig oft zur Laufzeit umprogrammiert werden. Wie im Podcast zu digitalen Währungen erwähnt, spielen Graphical Process Units (GPUs), FPGAs und ASICs eine große Rolle bei Kryptowährungen. Hier ist ein einzelner FPGA-Chip beim so genannten Mining meisst nicht schneller als eine GPU, verbrauchen jedoch im Vergleich deutlich weniger Strom. Spezialisierte ASICs hingegen übersteigen in Effizienz und Geschwindigkeit alle anderen Lösungen. FPGAs finden sich aktuell in vielen Consumer-Produkten, wie dem Apple iPhone 7, im Samsung Galaxy S5, Smart-TVs und selbst auch der Pebble Smartwatch. Ihren besonderen Vorteil spielen FPGAs bei der Verarbeitung von großen Datenmengen wie Videodaten aus, da sie in der Parallelisierung nur durch den verfügbaren Platz beschränkt sind. Die Beschreibung von FPGAs und ASICs, oder deren Programmierung, erfolgt eher strukturell in Hardwarebeschreibungssprachen wie Verilog oder VHDL. Diese Beschreibungen unterscheiden sich sehr von imperativen Programmiersprachen, wie sie oft für CPUs oder GPUs verwendet werden. Es werden in logischen oder kombinatorischen Blöcken Daten verarbeitet, die dann in Taktschritten von und in Datenregister übertragen werden. Die erreichbare Taktfrequenz hängt von der Komplexität der kombinatorischen Blöcke ab. Ein Beispiel für logische Blöcke können Soft-Cores sein, wo zukünftige oder nicht mehr erhältliche CPU-Designs in FPGAs zur Evaluation oder Rekonstruktion abgebildet werden. Eine Variante ist die Entwicklung in OpenCL, wo verschiedene Architekturen wie GPUs, CPUs und FPGA unterstützt werden. Für die effiziente Umsetzung ist dafür weiterhin großes Hardwarewissen erforderlich, und man kann nicht erwarten, dass Code für FPGAs ebenso auf GPU, oder umgekehrt CPU-Code in FPGAs darstellbar ist. Das Interesse von Dennis Gnad liegt bei den FPGAs darin, deren Daten, Logik oder Inhalte durch Seitenkanalangriffe in von den Entwicklern unvorhergesehener Art und Weise auszulesen. Ein Beispiel ist das Erkennen von Fernsehsendungen aus dem Stromverbrauch des Fernsehgeräts wie es auch schon im Podcast zu Smart Metern beschrieben wurde. Ebenso wurden schon Kryptoschlüssel aus Geräuschen einer CPU bestimmt. Mit Soundkarten kann man Funkuhren verstellen und auch Grafikkarten können als UKW-Sender verwendet werden. Die elektromagnetische Abstrahlung ist ein sehr klassischer Seitenkanal und ist als Van-Eck-Phreaking seit 1985 bekannt. Gerade wurden die Timing- und Speculative-Execution-Covered-Channel-Angriffe Spectre und Meltdown für einen großteil aktueller CPUs bekannt, die aktiv Seitenkanäle für verdeckten Informationszugriff nutzen. Normalerweise benötigen Power-Side-Angriffe, die den Stromverbrauch auswerten, physischen Zugang zum Gerät oder der Stromversorgung. Überraschenderweise ist es auf FPGAs hingegen möglich den Stromverbrauch anderer Schaltungsbestandteile rein durch Software zu bestimmen. Dazu werden FPGAs an der Grenze der Timing-Parameter betrieben, und statistisch die erfolgreiche Ausführung gemessen. Mit verschieden langen Pfaden können auch gleichzeitig die Zeitschranken verschieden stark belastet werden und damit gleichzeitig für mehrere Spannungsstufen ausgewertet werden. Damit kann der relative Spannungsverlauf kontinuierlich gemessen werden. Im Zuge seiner Forschung zu Voltage Fluctuations in FPGAs konnte Dennis Gnad die Qualität der Messungen nachweisen. Für die eigentliche Auswertung der Messungen werden hier die Verfahren der Differential Power Analysis verwendet, die nicht absolute Messungen, sondern mit relativen Messungen den Verlauf oder Unterschiede in den Verläufen statistisch analysieren. Speziell wurden mit dem Pearson Korrelations-Koeffizient verschiedene Schlüssel-Hypothesen mit modellierten Stromverläufen aufgestellt, um den Suchraum für einen kryptographischen AES-Schlüssel jeweils stückweise einzuschränken. Dafür musste die spezielle AES-Implementation auf dem FPGA bekannt sein, um entsprechende Leakage-Modelle für die Korrelationsauswertung aufstellen zu können. Insgesamt wurde so ein rein software-getriebener Angriff auf FPGAs demonstriert, der ohne sehr aufwändiges Code-Review-Verfahren, dessen Umsetzung bei VHDL ohnehin große Fragen aufwirft, kaum zu entdecken ist. Dennis betreibt die Forschung als Doktorand am Chair of Dependable Nano Computing (CDNC) am Karlsruher Institut für Technologie (KIT), deren Forschung besonders auf die Verlässlichkeit und auch der Sicherheit von Computersystemen abzielt. Die Forschungsarbeiten zu Seitenkanälen über den Stromverbrauch haben ebenso Anwendungen für die Zuverlässigkeit von den Systemen, da ebenso mit der Messung auch eine entsprechende Beeinflussung bis zur Erzeugung von Fehlerzuständen möglich wird, wie es von Dennis durch Fehlerzustände in der Stromversorgung zum Neustart von FPGAs demonstriert werden konnte. Mit Stuxnet wurde bekannt, dass auch Industrieanlagen mit Software zerstört werden konnten, es gab aber auch Computermonitore, die kreativ in neue Nutzungszustände gebracht wurden. Literatur und weiterführende Informationen D. Gnad: Seitenkanal-Angriffe innerhalb FPGA-Chips, Vortrag auf der GPN18, Karlsruhe, 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: An Inside Job: Remote Power Analysis Attacks on FPGAs, Cryptology ePrint Archive: Report 2018/012, Proceedings of Design, Automation & Test in Europe (DATE), 2018. D. Gnad, F. Oboril, M. Tahoori: Voltage Drop-based Fault Attacks on FPGAs using Valid Bitstreams, International Conference on Field-Programmable Logic and Applications (FPL), Belgium, 2017. A. Moradi, F.-X. Standaert: Moments-Correlating DPA, Cryptology ePrint Archive: Report 2014/409, Theory of Implementations workshop, 2016. P. Kocher, J. Jaffe, B. Jun, et al: Introduction to differential power analysis, J Cryptogr Eng 1: 5, 2011. E. Brier, C. Clavier, F. Olivier: Correlation power analysis with a leakage model, International workshop on cryptographic hardware and embedded systems. Springer, Berlin, Heidelberg, 2004. Cryptology ePrint Archive Search Portal Side Channel Cryptanalysis Lounge - Ruhr-Universität Bochum D. Gnad, F. Oboril, S. Kiamehr, M. Tahoori: An Experimental Evaluation and Analysis of Transient Voltage Fluctuations in FPGAs, in IEEE Transactions on Very Large Scale Integration Systems (TVLSI), 2018. F. Schellenberg, D. Gnad, A. Moradi, M. Tahoori: Remote Inter-Chip Power Analysis Side-Channel Attacks at Board-Level], In Proceedings of IEEE/ACM International Conference on Computer-Aided Design (ICCAD), USA, 2018. (to appear Nov. '18) J. Krautter, D. Gnad, M. Tahoori: FPGAhammer: Remote Voltage Fault Attacks on Shared FPGAs, suitable for DFA on AES], in IACR Transactions on Cryptographic Hardware and Embedded Systems (TCHES), Vol.1, No.3, 2018. (to appear Sept. '18)Podcasts A.-L. Baecker, C. Schrimpe: Crypto for the Masses – Grundlagen, Request for Comments, Der RFC Podcast, Folge 15, 2018. M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. S. Ritterbusch, G. Thäter: Digitale Währungen, Gespräch im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. B. Heinz, T. Pritlove: FPGA, CRE: Technik, Kultur, Gesellschaft, Folge 117, Metaebene Personal Media, 2009.GPN18 Special D. Gnad, S. Ritterbusch: FPGA Seitenkanäle, Gespräch im Modellansatz Podcast, Folge 177, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/fpga-seitenkanaele B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauenGPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meterGPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
8/16/2018 • 54 minutes, 10 seconds
Mechanical Engineering
In the last two semesters Gudrun has taught the courses Advanced Mathematics I and II for Mechanical Engineers. This is a mandatory lecture for the International mechanical engineering students at KIT in their first year of the Bachelor program. This program is organized by the Carl Benz School of Engineering. Beside the study courses, the school also provides common housing for students coming to Karlsruhe from all over the world. The general structure and topics of the first year in Advanced Mathematics were already discussed in our episode 146 Advanced Mathematics with Jonathan Rollin. This time Gudrun invited two students from her course to have the student's perspective, talking about mathematics, life, and everything. Yueyang Cai grew up mostly in China. In 2015, the work of her mother led Yueyang to Stuttgart. While looking for opportunities to study a technical subject in Germany the English speaking program in Karlsruhe somehow suggested itself. After one year she is sure to have made the right decision. The second student in the conversation is Siddhant Dhanrajani. His family is Indian but lives in Dubai. For that he got his education in Dubai in an Indian community follwowing the Indian educational system (CBSE). He had never heard of the Engineering program in Karlsruhe but found it through thourough research. He is really amazed at how such an excellent study program and such an excellent university as the KIT are not better known for their value in the world. In the conversation both students talk about their education in their respective countries, their hopes and plans for the study course mechanical engineering and their experiences in the first year here in Karlsruhe. It is very interesting to see how the different ways to teach mathematics, namely, either as a toolbox full of recipes (which the students get well-trained in) or secondly as a way to approach problems in a context of a mathematical education contribute to an experience to be well-equipped to work creative and with a lot of potential as an engineer. Though the students finished only the first year in a three years course they already work towards applications and necessary certificates for their possible master program after finishing the course in Karlsruhe. Related Podcasts G. Thäter, J. Rollin: Advanced Mathematics, Conversation in the Modellansatz Podcast, Episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. F. Hettlich, G. Thäter: Höhere Mathematik, Gespräch im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
8/2/2018 • 53 minutes, 29 seconds
Flugunfälle
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Bernd Sieker und sprach mit ihm um Unfälle mit Autopiloten mit Flugzeugen und Automobilen. Der Flugreiseverkehr ist inzwischen sehr sicher, es verbleibt aber ein Restrisiko, das man an den sehr seltenen Flugunfällen erkennen kann. Bernd untersucht nun die wenigen Abstürze großer Airliner, die es noch gab, und fragt sich, wie es zu diesen Katastrophen kommen konnte. Beispiele für Unfallursachen können beispielsweise Ausfälle scheinbar weniger relevanter Systeme sein, wo von der Crew Entscheidungen getroffen werden, die sie für sinnvoll halten, sich aber später als problematisch herausstellen. Technische Schäden, die unmittelbar zum Absturz führen, sind inzwischen sehr selten. Und selbst scheinbare kritische Ausfälle wie Triebwerksausfälle werden geübt und es gibt Prozeduren, wie man in diesen Fällen das Flugzeug möglichst sicher landen können sollte. Im Segelflug gehört eine Außenlandung auf freiem Feld zum Normalbetrieb, wobei man natürlich für am Boden etwaig entstandenen Schaden aufkommen muss, falls der Landwirt darauf besteht. Eine entsprechende nicht genehmigte Sicherheits- oder Notlandung führt bei Motorflugzeugen zur Auskunfts- oder Meldepflicht mit entsprechenden Auflagen zum Abtransport oder Erlaubnis zum Wiederstart. Bei der Untersuchung von Unglücksfällen geht der erste Blick auf offizielle Berichte oder Untersuchungen. So auch beim Air-France Flug 447 von 2009, wo ein Airbus A330-203 mitten über dem Atlantik plötzlich verschwand. Erste Indizien auf das Unglück wurden durch ACARS-System über Satellit empfangen, unter anderem über den Ausfall von Staurohren, mit denen die Geschwindigkeit des Flugzeugs gemessen wird. Das ist ein dramatischer Ausfall an Information, mit dem die Piloten aber umgehen können müssten und der eigentlich nicht zu einem Absturz führen sollte, denn die Geschwindigkeit ist noch mittels anderer Sensoren erkennbar. Erste gefundene Wrackteile deuteten darauf hin, dass das Flugzeug fast senkrecht in horizontaler Lage auf das Wasser aufgeschlagen sein musste. Dies führte auf die Vermutung, dass das Flugzeug überzogen wurde, bis es zum Strömungsabriss kam, und es daraufhin einfach herunterfiel. Nach Bergung des Flugschreibers bestätigte sich der vermutete Ablauf. Er wurde durch einen überraschend kurzen Zeitraum von wenigen Minuten zwischen Fehlermeldung und Absturz aus Reiseflughöhe belegt. Die Piloten müssen in der widersprüchlichen Situation gewesen sein, dass ihnen der Sink"flug" angezeigt wurde, während die Nase des Flugzeugs nach oben zeigte, was laut Training normalerweise in diesem Flugzustand nicht möglich ist. Bei dem eingesetzten Fly-by-wire System wäre eigentlich auch kein Strömungsabriss möglich gewesen. Nach Ausfall der Staurohre führte nun die Verkettung zwischen unvorhersehbarem Flugzeugzustand und der dramatischen Fehlinterpretation durch die Piloten zum Absturz. In der Ursachenanalyse ist sowohl zu beachten, dass die Warnmeldungen zum Strömungsabriss von den Piloten womöglich wegen einer Vielzahl von Warnmeldungen nicht mehr erfasst werden konnte. Ebenso wurden widersprüchliche Angaben zur Fluggeschwindigkeit und Anstellwinkeln von den Systemen des Flugzeugs irgendwann als ungültig abgewiesen und entsprechende Warnungen abgeschaltet oder nur noch widersprüchlich wiedergegeben. Dies führt zur Betrachtung solcher Systeme unter dem Aspekt, dass sie sozio-technisch sind, mit der Einsicht, dass gerade bei der Übertragung von Aufgaben des Menschen an Technik und zurück ein besonderes und schwer vorhersehbares Fehlerpotenzial besteht. Insbesondere Autopiloten haben eine besondere Bedeutung, da sie direkt in die Aufgaben der steuernden Menschen eingreifen. Klassisch steuern Autopiloten nur in sehr engen Parametern wie einzuhaltende Richtung, Höhe, Querneigung der Sink-/Steiggeschwindigkeit. Im Auto sind schon Geschwindigkeits- und Abstandsautomatik üblich. Jedoch sind auch Landungen mit Autopilot möglich, die aber ein besonderes Training und Überprüfung von Mensch und Maschine und Verbesserung der Algorithmen und redundante Sensoren erfordern. Dies zeigt schon, wie kritisch Autopiloten im Automobil zu sehen sind, da hier bisher kein besonderes Training für die Verwendung von Autopiloten erfolgt. Eine Überraschung ist dabei, dass eine besondere Gefahr daraus entsteht, wenn Autopiloten so zuverlässig werden dass sich Menschen zu sehr auf sie verlassen. Überraschende Situationen kann aber der Mensch meist besser bewältigen. Bei der Untersuchung von Flugunfällen stellt sich besonders die Frage, welche Ereignisse die eigentliche Ursache also für das Unglück verantwortlich sind. Wie ist hier Kausalität zu definieren? An der Uni Bielefeld wurde in der Arbeitsgruppe von Prof. Ladkin dazu die Why-Because-Analysis (WBA) entwickelt, wo die Counterfactual Test Theory von David Lewis zum Einsatz kommt. Aus der Überprüfung, ob ein Ereignis notwendig und die Menge der gefunden Ereignisse hinreichend für die Entstehung eines Ereignisses war, entsteht ein kausaler "Why-Because"-Graph (WBG), der genau nur die Ereignisse zusammenfasst, die notwendig zum Unglück führten. Ein interessantes philosophisches Konstrukt ist hier die Nearest-Possible-World-Theory, die ein Szenario konstruiert, das dem Unglück möglichst stark ähnelt, für das aber es nicht zum Unglück gekommen wäre. Was war hier anders? Was können wir daraus lernen? Durch Vergleich mit vorherigen dokumentierten Ereignissen können Teile des WBG auch quantitativ bewertet werden, obgleich die Datenbasis oft sehr gering ist. Dennoch können Schlüsse gezogen werden, welche Ereignisse bisher ignoriert wurden und ob dies gerechtfertigt ist. Das National Transportation Safety Board (NTSB) befasst sich in den USA wie die Bundesstelle für Flugunfalluntersuchung (BFU) in Deutschland typischerweise mit der Aufarbeitung von Unglücksfällen, und wie diesen in Zukunft entgegengewirkt werden kann. Darüber hinaus haben ebenso Versicherungen von Fluggesellschaften ein großes Interesse an einer Aufarbeitung, da die Fluggesellschaften in vielen Bereichen für Unglücke haftbar sind, soweit sie nicht nachweisen können, dass die Hersteller verantwortlich zu machen sind. Während des Asiana Airlines Flug 214 kam es in einer Boeing 777 im Anflug auf San Francisco 2013 im Landeanflug zu einer "Mode Confusion" beim Autopilot: Die erwartete Schubregulierung blieb aus, und es kam zu einem Absturz. Im Fall des Turkish Airlines Flug 1951 mit einer Boeing 737 nach Amsterdam gab es im Anflug einen Fehler im Radarhöhenmessgerät, wodurch der Autopilot in Erwartung der Landung aktiv den Schub zurückregelte. Die Korrektur der Piloten schlug fehl, da sie sich nicht über die genauen Abläufe im Klaren waren. Dies deutet schon deutlich darauf, dass Schwierigkeiten beim Einsatz von Autopiloten im automobilen Umfeld zu erwarten sind. Darüber hinaus sind die erforderlichen menschlichen Reaktionszeiten im Auto deutlich kürzer, so dass Missverständnisse oder das An- oder Abschalten von Autopilot-Funktionen deutlich leichter zu Unglücken führen können. Eine wichtige Einstufung sind hier die erreichten SAE Autonomiestufen, die beschreiben, wie weit das Fahrzeug Aufgaben des Fahrens übernehmen kann. Besonders problematisch ist Autonomiestufe 3: Hier darf der Fahrer sich während der Fahrt anderen Dingen als der Fahrzeugführung zuwenden, muss aber nach einer gewisse Vorwarnzeit wieder die Führung wieder übernnehmen können. Selbst bei wenigen Sekunden wird dies bei höheren Geschwindigkeiten sehr schwer zu erfüllen sein. Bei Stufe 4 muss das Fahrzeug auch ohne Fahrerintervention sicher bleiben, notfalls durch Anhalten, Stufe 5 ist vollständig autonom von Tür zu Tür. Ein weiterer Gesichtspunkt ist die vorhandene Sensoraustattung und deren Ausfallsicherheit oder die Interpretation der Sensormessungen. Im Fall des Unfalls eines Uber-Autos am 18. März 2018 in Arizona wurde eine Fußgängerin von den Sensoren zwar erfasst, jedoch wurden die Detektion durch die Software als Fehler zurückgewiesen und es kam zum Unfall. Die hier verwendete Software war und wird weit weniger getestet und formal geprüft als Software im Luftfahrtumfeld, da dies auch im Bezug auf neuronale Bilderkennungsverfahren schwer umzusetzen sein wird. Ein weiterer Aspekt ist, dass selbst wenn ein sozio-technisches System sicherer als Menschen fährt, die Akzeptanz nur sehr schwer zu erreichen sein und viele rechtliche und ethische Fragen zunächst zu klären wären. Vielen Dank an Markus Völter für die Unterstützung in dieser Folge. Literatur und weiterführende Informationen D. Lewis: Counterfactuals and comparative possibility, Springer, Dordrecht, 57-85, 1973. P. Ladkin: Causal reasoning about aircraft accidents, International Conference on Computer Safety, Reliability, and Security. Springer, Berlin, Heidelberg, 2000. B. Sieker: Visualisation Concepts and Improved Software Tools for Causal System Analysis, Diplomarbeit an der Technischen Fakultät der Universität Bielefeld, 2004. B. Sieker: Systemanforderungsanalyse von Bahnbetriebsverfahren mit Hilfe der Ontological Hazard Analysis am Beispiel des Zugleitbetriebs nach FV-NE, Dissertation an der Technischen Fakultät der Universität Bielefeld, 2010. Causalis Limited Research Group Networks, System Safety, Embedded and Distributed Systems B. Sieker: Hold Steering Wheel! Autopilots and Autonomous Driving. Presentation at the Gulaschprogrammiernacht 18, ZKM/HfG, Karlsruhe, 2018. B. Sieker: What's It Doing Now? The Role of Automation Dependency in Aviation Accidents. Presentation at the Chaos Communication Congress 33C3, 2016. Podcasts H. Butz, M. Völter: Komplexe Systeme, Folge 058 im omega tau Podcast, Markus Völter und Nora Ludewig, 2011. S. B. Johnson, M. Völter: System Health Management, Episode 100 in the omega tau Podcast, Markus Völter and Nora Ludewig, 2012. R. Reichel, M. Völter: Fly by Wire im A320, Folge 138 im omega tau Podcast, Markus Völter und Nora Ludewig, 2014. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 1, Folge 262 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. S., J., C., A., M. Völter: Mit Lufthansas A380 nach Hong Kong Teil 2, Folge 263 im omega tau Podcast, Markus Völter und Nora Ludewig, 2017. P. Nathen, G. Thäter: Lilium, Gespräch im Modellansatz Podcast, Folge 145, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. GPN18 Special B. Sieker, S. Ritterbusch: Flugunfälle, Gespräch im Modellansatz Podcast, Folge 175, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/flugunfaelle A. Rick, S. Ritterbusch: Erdbebensicheres Bauen, Gespräch im Modellansatz Podcast, Folge 168, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/erdbebensicheres-bauen GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. A. Rick, S. Ritterbusch: Bézier Stabwerke, Gespräch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke F. Magin, S. Ritterbusch: Automated Binary Analysis, Gespräch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/binary-analyis M. Lösch, S. Ritterbusch: Smart Meter Gateway, Gespräch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/smart-meter GPN16 Special A. Krause, S. Ritterbusch: Adiabatische Quantencomputer, Gespräch im Modellansatz Podcast Folge 105, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/adiabatische-quantencomputer S. Ajuvo, S. Ritterbusch: Finanzen damalsTM, Gespräch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm M. Fürst, S. Ritterbusch: Probabilistische Robotik, Gespräch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik J. Breitner, S. Ritterbusch: Incredible Proof Machine, Gespräch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
7/26/2018 • 1 hour, 22 minutes, 29 seconds
CAMMP Week
In dieser Folge unterhält sich Gudrun gleich mit vier Personen. Im Gespräch geht es um ein ganz besonderes Angebot für Schülerinnen und Schüler: die CAMMP-week. Die Abkürzung CAMMP steht hier für "Computational and Mathematical Modeling Program" (deutsch: "Computergestütztes Mathematisches Modellierungsprogramm"). Das Programm wurde in der Arbeitsgruppe von Martin Frank während seiner Tätigkeit an der RWTH in Aachen entwickelt. Mit seinem Wechsel ans KIT in Karlsruhe gibt es nun seit Januar 2018 auch ein Standbein am KIT. Mit Kirsten Wohak hatte Gudrun schon über das Konzept, die Idee und konkrete Beispiele für CAMMP gesprochen. Dabei entstand der Wunsch, unbedingt auch Schülerinnen und Schüler zu Wort kommen zu lassen, die an einer CAMMP-Veranstaltung teilgenommen haben. Elly Bastian und Christian Beitzinger haben vom 24.-29. Juni 2018 an der diesjährigen CAMMP week in der Jugendherberge in Voeren (Belgien) teilgenommen und hatten Lust, im Podcast über ihre Erfahrungen zu berichten. Elly ist derzeit noch Schülerin der 10. Klasse am Goethe-Gymnasium in Gaggenau und Christian ist in der K1 im Tulla-Gymnasium in Rastatt. Zwei Programmgestalterinnen waren ebenfalls mit in der Podcast-Gesprächsrunde, nämlich Kirsten Wohak und Maren Hattebuhr. Sie gehören am KIT zur Arbeitsgruppe von Martin Frank Computational Science and Mathematical Methods. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik. Das Angebot der CAMMP week richtet sich an Schüler und Schülerinnen der Oberstufe, die an Mathematik interessiert sind, an Mathematiklehrpersonen sowie Personen im Referendariat oder Lehramtsstudium und findet jährlich in der Jugendherberge in Voeren in Belgien statt. In Karlsruhe wird zusätzlich noch eine zweite Modellierungswoche in Zusammenarbeit mit dem MINT-EC angeboten, an welcher Schülerinnen und Schüler von Schulen, die Teil des MINT-Schulnetzwerks sind, teilnehmen können. In beiden Wochen werden die Teilnehmenden in Gruppen aufgeteilt, die jeweils aus sechs Schülerinnen und Schülern und zwei (angehenden) Lehrkräften bestehen. Bei den zu lösenden Problemen handelt es sich um reale Fragestellungen aus der Forschung von Firmen oder Universitätsinstituten. Jede Gruppe erhält eine individuelle Aufgabenstellung, an der sie innerhalb der fünf Tage forscht. Dabei wird sie auch wissenschaftlich betreut. Die Schülerteams präsentieren ihre Ergebnisse den Firmen am Ende der Woche im Rahmen einer repräsentativen Abschlussveranstaltung. Hier sind auch die Familien und die Schulen dabei. Welche Wege führen junge Menschen nun in die CAMMP week? Elly hatte Anfang 2018 die Arbeit der Gruppe um Martin Frank im Rahmen ihres BOGY-Praktikums kennen gelernt und dabei Lust bekommen, noch mehr praktische Mathematik zu machen. Obwohl sie keine andere Person kannte, die auch nach Belgien fahren würde, war ihre Lust so groß, dass sie sich auf das Abenteuer einlassen wollte. Christian wurde von seinem Mathelehrer auf die Möglichkeit hingewiesen und hatte sich mit Mitschülern abgesprochen. Beide berichteten darüber, dass sie in der jeweiligen Gruppe mit viel Enthusiasmus arbeiten konnten, viele Ideen geboren und wieder verworfen wurden und am Ende auch in schwierigen Phasen ein Ausweg gefunden wurde. Es war eine interessante Erfahrungen, mit anderen Schülerinnen und Schülern zusammen zu sein, die auch Begeisterung für Mathematik empfinden. Beide haben nun ein neues Bild von Mathematik und den Möglichkeiten einer späteren Berufstätigkeit mit einer mathematischen Vorbildung und würden auch gern wieder an einer CAMMP week teilnehmen. Podcasts E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Frank: Kinetische Theorie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 152, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. B. Böttcher: Meisterklasse, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. G. Thäter, K. Wohak: CAMMP, Gespräch im Modellansatz Podcast, Folge 165, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. 10 Jahre Omega Tau Podcast
7/19/2018 • 39 minutes, 45 seconds
Dynamical Sampling
Gudrun met the USA-based mathematician Roza Aceska from Macedonia in Turin at the Conference MicroLocal and Time-Frequency Analysis 2018. The topic of the recorded conversation is dynamical sampling. The situation which Roza and other mathematician study is: There is a process which develops over time which in principle is well understood. In mathematical terms this means we know the equation which governs our model of the process or in other words we know the family of evolution operators. Often this is a partial differential equation which accounts for changes in time and in 1, 2 or 3 spatial variables. This means, if we know the initial situation (i.e. the initial conditions in mathematical terms), we can numerically calculate good approximations for the instances the process will have at all places and at all times in the future. But in general when observing a process life is not that well sorted. Instead we might know the principal equation but only through (maybe only a few) measurements we can find information about the initial condition or material constants for the process. This leads to two questions: How many measurements are necessary in order to obtain the full information (i.e. to have exact knowledge)? Are there possibilities to choose the time and the spatial situation of a measurement so clever as to gain as much as possible new information from any measurement? These are mathematical questions which are answered through studying the equations. The science of sampling started in the 1940s with Claude Shannon who found fundamental limits of signal processing. He developed a precise framework - the so-called information theory. Sampling and reconstruction theory is important because it serves as a bridge between the modern digital world and the analog world of continuous functions. It is surprising to see how many applications rely on taking samples in order to understand processes. A few examples in our everyday life are: Audio signal processing (electrical signals representing sound of speech or music), image processing, and wireless communication. But also seismology or genomics can only develop models by taking very intelligent sample measurements, or, in other words, by making the most scientific sense out of available measurements. The new development in dynamical sampling is, that in following a process over time it might by possible to find good options to gain valuable information about the process at different time instances, as well as different spatial locations. In practice, increasing the number of spatially used sensors is more expensive (or even impossible) than increasing the temporal sampling density. These issues are overcome by a spatio-temporal sampling framework in evolution processes. The idea is to use a reduced number of sensors with each being activated more frequently. Roza refers to a paper by Enrique Zuazua in which he and his co-author study the heat equation and construct a series of later-time measurements at a single location throughout the underlying process. The heat equation is prototypical and one can use similar ideas in a more general setting. This is one topic on which Roza and her co-workers succeeded and want to proceed further. After Roza graduated with a Ph.D. in Mathematics at the University of Vienna she worked as Assistant Professor at the University Ss Cyril and Methodius in Skopje (Macedonia), and after that at the Vanderbilt University in Nashville (Tennessee). Nowadays she is a faculty member of Ball State University in Muncie (Indiana). References Overview on sampling theory and applications: M. Unser: Sampling-50 years after Shannon Proceedings of the IEEE 88 (4) 569 - 587, 2000. Dynamical sampling in shift-invariant spaces: R. Aceska e.a.: Dynamical Sampling in Shift-Invariant Spaces 2014 (Version at Archive} Dynamical sampling: R. Aceska, A. Petrosyan, S. Tang: Dynamical sampling of two-dimensional temporally-varying signals International Conference on Sampling Theory and Applications (SampTA), DOI:10.1109/SAMPTA.2015.7148929, 2015. DeVore, Ronald, and Enrique Zuazua: Recovery of an initial temperature from discrete sampling, Mathematical Models and Methods in Applied Sciences 24.12 (2014): 2487-2501, 2014. Evolution operators involved in dynamical sampling: S. Tang: System identification in dynamical sampling, Advances in Computational Mathematics 43 (3) 555–580, 2017. On Bessel systems, bases and frames in the dynamical sampling setup: A.Aldroubi e.a.:lterative actions of normal operators Journal of Functional Analysis 272 (3), 1121-1146, 2017. Related Podcasts G. Thäter, E. Zuazua: Waves, Conversation in Modellansatz Podcast Episode 054, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
7/12/2018 • 33 minutes, 23 seconds
Sternenschwerpunkt
Am Rande des Treffens des German Chapters of European Women in Mathematics sprach Gudrun mit Carla Cederbaum. Das Treffen der Mathematikerinnen fand am 3. und 4. Mai 2018 im Mathematikon in Heidelberg statt. Carla hielt einen der Hauptvorträge und gab einen Einblick in ihre Forschung unter dem Titel "Where is the center of mass of a star -- and what does this have to do with Mathematics?" Die Ideen der Vorlesung dienten als Einstieg in das Gespräch zum Arbeitsgebiet von Carla: Mathematische Relativitätstheorie. Dieses Thema schlägt eine Brücke zwischen Physik und Mathematik. Carla hat sich schon immer sehr für Mathematik und Physik interessiert und sich zunächst für ein Physikstudium entschieden. Später hat die Mathematik sich als attraktiver erwiesen, aber die physikalische Anwendungen liegen ihr weiterhin am Herzen. Nun benutzt sie mathematische Methoden der geometrischen Analysis und Differentialgeometrie gemeinsamen mit ihren grundlegenden Vorstellungen von Physik für ihre Forschung. Im Zentrum des Vortrages stand, welche Schritte es möglich gemacht haben, das klassische Konzept Schwerpunkt auf die Situation zu übertragen, dass sich Objekte so wie Sterne oder Galaxien so schwer sind bzw. sich so schnell bewegen, dass sie den Gesetzmäßigkeiten der Relativitätstheorie unterliegen. Der Schwerpunkt eines physikalischen Systems ist eines der ältesten und grundlegendsten Konzepte der mathematischen Physik und Geometrie. Das Verstehen der Position und Bewegung des Massenschwerpunktes eines Systems ist oft der erste Schritt zum Verständnis der Gesamtdynamik des Systems. Geht man jedoch über die klassische Mechanik hinaus, wird der Begriff immer komplizierter und muss neu definiert werden. Beispielsweise hängt der Schwerpunkt einer Massenverteilung in besonderer Weise vom gewählten Beobachter ab und er muss sich für Objekte wie schwarzes Löcher eignen. Hier kann er nicht als "Ereignis" (Punkt) in der Raumzeit beschrieben werden. Jede Vorstellung vom Massenschwerpunkt muss also notwendigerweise abstrakter sein. In ihrer Doktorarbeit untersuchte Carla sogenannte geometrostatische Systeme, d.h. asymptotisch flache statische Lösungen der Einstein-Gleichungen im Vakuum. Anders ausgedrückt sind das statisch isolierte relativistische Systeme, deren Materie kompakten Träger hat. Ihr Ziel war es, ein tieferes Verständnis ihrer Asymptotik zu erlangen und mehr Einblick in ihre physikalische Interpretation (z.B. Masse und Schwerpunkt) zu gewinnen. Des weiteren war es spannend, inwieweit klassische und solche relativistischen Begriffe ineinander übergehen im Grenzwert kleiner Geschwindigkeiten. Der Vortrag zeigte, worin die Herausforderungen bestehen und zeigte welche Techniken von ihr erfolgreich angewendet worden waren. Als erstes grundlegendes Problem für nicht statische Systeme erweist sich, dass die Beschreibung vom Beobachter abhängen muss. Eine grundlegende Idee ist es, die Lage des Schwerpunktes als Zentrum einer unendlichen Schar von ineinander liegenden Sphären zu beschreiben. Je größer diese Kugeloberflächen werden, desto weniger sind sie gekrümmt. Wenn man die Krümmung in der Geometrie des zu beschreibenden Raumes beherrscht, kann man als den Grenzwert dieser ineinander geschachtelten Sphären den Schwerpunkt fassen. Zur Beschreibungen von Krümmungen braucht man die zweiten Ableitungen auf den eingebetteten Oberflächen in alle Richtungen, weshalb dies auf eine partielle Differentialgleichung zweiter Ordnung führt. Carla ist Juniorprofessorin am Fachbereich Mathematik der Universität Tübingen und Kollegiatin der Heidelberger Akademie der Wissenschaften. Sie hat schon sehr früh ihre Forschung allgemeinverständlich dargestellt, z.B. 2009 mit der interaktiven Ausstellung Von Newton zu Einstein: Eine Reise durch Raum und Zeit. Sie macht das sehr erfolgreich und brennt für das Thema Literatur und weiterführende Informationen C. Cederbaum, A geometric boundary value problem related to the static equations in General Relativity Oberwolfach report, 2017. C. Cederbaum, J. Cortier, A. Sakovich, On the center of mass of asymptotically hyperbolic initial data sets (preprint, accepted in Ann. Henri Poincaré), 2015. MSRI Emissary General Relativity, 2013. Carla Cederbaum,The Geometry of Static Spacetimes: Geometrostatics, Oberwolfach report, 2012. Carla Cederbaum, The Newtonian Limit of Geometrostatics, PhD thesis, 2011.
7/5/2018 • 54 minutes, 59 seconds
Algebraic Geometry
Gudrun spent an afternoon at the Max Planck Institute for Mathematics in the Sciences (MPI MSI) in Leipzig. There she met the Colombian mathematician Eliana Maria Duarte Gelvez. Eliana is a PostDoc at the MPI MSI in the Research group in Nonlinear Algebra. Its head is Bernd Sturmfels. They started the conversation with the question: What is algebraic geometry? It is a generalisation of what one learns in linear algebra insofar as it studies properties of polynomials such as its roots. But it considers systems of polynomial equations in several variables so-called multivariate polynomials. There are diverse applications in engineering, biology, statistics and topological data analysis. Among them Eliana is mostly interested in questions from computer graphics and statistics. In any animated movie or computer game all objects have to be represented by the computer. Often the surface of the geometric objects is parametrized by polynomials. The image of the parametrization can as well be defined by an equation. For calculating interactions it can be necessary to know what is the corresponding equation in the three usual space variables. One example, which comes up in school and in the introductory courses at university is the circle. Its representation in different coordinate systems or as a parametrized curve lends itself to interesting problems to solve for the students. Even more interesting and often difficult to answer is the simple question after the curve of the intersection of surfaces in the computer representation if these are parametrized objects. Moreover real time graphics for computer games need fast and reliable algorithms for that question. Specialists in computer graphics experience that not all curves and surfaces can be parametrized. It was a puzzling question until they talked to people working in algebraic geometry. They knew that the genus of the curve tells you about the possible vs. impossible parametrization. For the practical work symbolic algebra packages help. They are based on the concept of the Gröbner basis. Gröbner basis help to translate between representations of surfaces and curves as parametrized objects and graphs of functions. Nevertheless, often very long polynomials with many terms (like 500) are the result and not so straightforward to analyse. A second research topic of Eliana is algebraic statistics. It is a very recent field and evolved only in the last 20-30 years. In the typical problems one studies discrete or polynomial equations using symbolic computations with combinatorics on top. Often numerical algebraic tools are necessary. It is algebraic in the sense that many popular statistical models are parametrized by polynomials. The points in the image of the parameterization are the probability distributions in the statistical model. The interest of the research is to study properties of statistical models using algebraic geometry, for instance describe the implicit equations of the model. Eliana already liked mathematics at school but was not always very good in it. When she decided to take a Bachelor course in mathematics she liked the very friendly environment at her faculty in the Universidad de los Andes, Bogotá. She was introduced to her research field through a course in Combinatorial commutative algebra there. She was encouraged to apply for a Master's program in the US and to work on elliptic curves at Binghamton University (State University of New York) After her Master in 2011 she stayed in the US to better understand syzygies within her work on a PhD at the University of Illinois at Urbana-Champaign. Since 2018 she has been a postdoc at the MPI MSI in Leipzig and likes the very applied focus especially on algebraic statistics. In her experience Mathematics is a good topic to work on in different places and it is important to have role models in your field. References E. Duarte, Ch. Görgen: Equations defining probability tree models E. Duarte: Implicitization of tensor product surface in the presence of a generic set of basepoints. 2016. Journal of Algebra and Applications(to appear). Rigidity of Quasicrystal Frameworks - webpage E. M. Duarte, G. K. Francis: Stability of Quasicrystal Frameworks in 2D and 3D Proceedings of the First Conference Transformables 2013.In the Honor of Emilio Perez Piñero 18th-20th September 2013, Seville, Spain Portraits of people working in Nonlinear Algebra Podcasts P. Schwer: Metrische Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
6/28/2018 • 51 minutes, 28 seconds
InfSup-Bedingung
Am 6. Juni 2018 hat Dietmar Gallistl seine Antrittsvorlesung gehalten. Dies ist der traditionelle Abschluss jedes Habilitationsverfahrens an der KIT-Fakultät für Mathematik. Der Titel des Vortrags lautete: Die Stabilitätskonstante des Divergenzoperators und ihre numerische Bestimmung. Im Zentrum des Vortrags und des Gespräches mit Gudrun stand die Inf-sup-Bedingung, die u.a. in der Strömungsrechnung eine zentrale Rolle spielt. Das lineare Strömungsproblem (Stokesproblem) besteht aus einer elliptischen Vektor-Differentialgleichung für das Geschwindigkeitsfeld und den Gradienten des Drucks und einer zweiten Gleichung. Diese entsteht unter der Annahme, dass es zu keiner Volumenänderung im Fluid unter Druck kommt (sogenannte Inkompressibilität) aus der Masseerhaltung. Mathematisch ist es die Bedingung, dass die Divergenz des Geschwindigkeitsfeldes Null ist. Physikalisch ist es eine Nebenbedingung. In der Behandlung des Problems sowohl in der Analysis als auch in der Numerik wird häufig ein Lösungsraum gewählt, in dem diese Bedingung automatisch erfüllt ist. Damit verschwindet der Term mit dem Druck aus der Gleichung. Für das Geschwindigkeitsfeld ist dann mit Hilfe des Lax-Milgram Satzes eine eindeutige Lösung garantiert. Allerdings nicht für den Druck. Genau genommen entsteht nämlich ein Sattelpunktproblem sobald man den Druck nicht ausblendet. Dieses ist nicht wohlgestellt, weil man keine natürlichen Schranken hat. Unter einer zusätzlichen Bedingung ist es aber möglich, hier auch die Existenz des Druckes zu sichern (und zwar sowohl analytisch als auch später im numerischen Verfahren solange der endliche Raum ein Unterraum des analytischen Raumes ist). Diese heißt entweder inf-sup Bedingung oder aber nach den vielen Müttern und Vätern: Ladyzhenska-Babushka-Brezzi-Bedingung. Die Konstante in der Bedingung geht direkt in verschiedene Abschätzungen ein und es wäre deshalb schön, sie genau zu kennen. Ein Hilfsmittel bei der geschickten numerischen Approximation ist die Helmholtzzerlegung des L2. Diese besagt, dass sich jedes Feld eindeutig in zwei Teile zerlegen läßt, von der eines ein Gradient ist und der andere schwach divergenzfrei. Es lassen sich dann beide Teile getrennt betrachten. Man konstruiert den gemischten Finite Elemente Raum so, dass im Druck stückweise polynomielle Funktionen (mit Mittelwert 0) auftreten und und für den Raum der Geschwindigkeitsgradienten das orthogonale kompelemt der schwach divergenzfreien Raviart-Thomas-Elemente gewählt ist. Dietmar Gallistl hat in Freiburg und Berlin Mathematik studiert und promovierte 2014 an der Humboldt-Universität zu Berlin. Nach Karlsruhe kam er als Nachwuchsgruppenleiter im SFB Wellenphänome - nahm aber schon kurz darauf in Heidelberg die Vertretung einer Professur wahr. Zur Zeit ist er als Assistant Professor an der Universität Twente tätig. Literatur und weiterführende Informationen D. Gallistl. Rayleigh-Ritz approximation of the inf-sup constant for the divergence. Math. Comp. (2018) Published online, https://doi.org/10.1090/mcom/3327 Ch. Bernardi, M. Costabel, M. Dauge, and V. Girault, Continuity properties of the inf-sup constant for the divergence, SIAM J. Math. Anal. 48 (2016), no. 2, 1250–1271. https://doi.org/10.1137/15M1044989 M. Costabel and M. Dauge, On the inequalities of Babuška-Aziz, Friedrichs and Horgan-Payne, Arch. Ration. Mech. Anal. 217 (2015), no. 3, 873–898. https://doi.org/10.1007/s00205-015-0845-2 D. Boffi, F. Brezzi, and M. Fortin, Mixed finite element methods and applications, Springer Series in Computational Mathematics, vol. 44, Springer, Heidelberg, 2013. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016
6/21/2018 • 20 minutes, 5 seconds
Maschinenbau HM
Gudrun sprach mit Gabriel Thäter. Er ist der langjährigen Hörerschaft schon bekannt, denn er hat im Februar 2015 als Schüler über sein BOGY-Praktikum am Institut für angewandte und numerische Mathematik berichtet. Heute ist er Maschinenbau-Student am KIT und absolviert gerade sein viertes Semester. Damit hat Gabriel die drei Semester, in denen Mathematik zum Studienplan für Maschinenbauer gehört - die sogenannte Höhere Mathematik (HM) I-III - erfolgreich abgeschlossen. Außerdem arbeitet er schon das zweite Semester als Tutor in der HM-Ausbildung für das Studienjahr, das nach ihm das Studium aufgenommen hat. Gudrun wollte im Gespräch aus erster Hand erfahren, wie die Mathe-Ausbildung bei ihm angekommen ist. Der Ausgang war, mit welchen Wünschen und Erwartungen Gabriel sich für ein Studium im Maschinenbau entschieden hat. Tatsächlich war Maschinenbau nicht sein erster Wunsch, sondern er hatte sich zunächst für ein Duales Studium in Luft- und Raumfahrttechnik beworben. Das Duale Studium vereinigt Praxisphasen in einem Unternehmen mit Studienphasen an einer Fachhochschule und führt zum Abschluss Bachelor. Während der Studienzeit zahlt das Unternehmen ein Gehalt. Diese Studiensituation ist ist so attraktiv, dass der Wettbewerb um die wenigen Studienplätze immer sehr stark ist - auch wenn es nicht die ideale Ausgangssituation für eine Forschungstätigkeit später ist, da die theoretische Ausbildung nicht so breit aufgestellt sein kann wie im Bachelor an einer Universität. Ein Studium des Maschinenbaus kam Gabriels Wunschbild Raumfahrttechnik am nächsten, zumal mit einem Studium in Karlsruhe für ihn auch kein Wohnort-Wechsel nötig wurde. Inzwischen ist Gabriel mit der "zweiten Wahl" sehr zufrieden, denn sein Studium erweist sich für ihn sehr vielseitig und bereitet ihn auf unterschiedliche Spezialisierungsmöglichkeiten vor. Im Moment plant er, sich in der Richtung Thermische Strömungsmaschinen zu vertiefen. Gabriel war darauf gefasst, dass Mathematik an der Uni etwas mehr Zeit und Mühe kosten wird als in der Schule. Es hat ihn aber doch etwas überrascht, wie sehr sich Stoffdichte und Unterrichtstempo von der Schule unterscheiden. Trotzdem hat er seinen Ehrgeiz darin gesetzt, die Übungsaufgaben möglichst richtig und vollständig zum gegegebnen Termin einzureichen. Um für die schriftliche Prüfung am Ende des Semester zugelassen zu werden, muss man in der Summe der Übungsblätter 1-10 eine gewisse Mindestpunktzahl erreichen. Für Gabriel hat sich die Arbeit in einer Gruppe bewährt. Für die Prüfungsvorbereitung hat er auch alte Klausuren aus der Fachschaft herangezogen. Die Aufteilung des Lernens in der Vorlesung, der zentralen Übung und in den Tutorium hat ihm gut gefallen. Jede Veranstaltung hat ihren Platz und ihren eigenen Nutzen für ihn gezeigt. Als Tutor sieht er nun die Lehre auch ein wenig von der anderen Seite. Er unterrichtet selbst pro Woche eine Stunde, in der die Studierenden Fragen zu den aktuellen Aufgaben stellen und in Gruppen Aufgaben lösen, die den Übungsaufgaben zuarbeiten. Außerdem korrigiert er die Hausaufgaben seiner Tutoriengruppe. Dabei fällt ihm negativ auf, wenn zur Lösung kein logischer Rahmen gegeben wird, sondern einfach "wild losgerechnet" wird. Dann fällt es oft schwer, zu verstehen, was die Studierenden eigentlich mit den Rechnungen finden möchten und ob das sinnvoll ist oder falsch. Gabriel sagt, dass er durch die Vorbereitung der Tutorien oft noch viel besser verstanden hat, was er eigentlich im ersten und zweiten Semester gelernt hat. Podcasts und weiterführende Informationen G. Thäter: Wasserraketen, Gespräch mit G. Thäter im Modellansatz Podcast Folge 49, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/wasserraketen F. Hettlich: Höhere Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/hoehere-mathematik G. Thäter, J. Rollin: Advanced Mathematics, conversation in the Modellansatz Podcast, episode 146, Department of Mathematics, Karlsruhe Institute for Technology (KIT), 2017. http://modellansatz.de/advanced-mathematics Informationen zur Höheren Mathematik im Maschinenbau am KIT
6/14/2018 • 32 minutes, 59 seconds
Erdbebensicheres Bauen
Vom 10. - 13. Mai 2018 fand im ZKM und in der Hochschule für Gestaltung (HfG) die GPN18 statt. Dort traf Sebastian auf Arne Rick und sie unterhielten sich über die DIN-Norm 4149 zu Erdbebensicherem Bauen. Die DIN4149 legt fest, nach welchen Auslegungszahlen man planen, und welchen Verfahren man Gebäude bauen darf, um sie "erdbebensicher" gemäß der Norm nennen zu dürfen. Erdbeben sind in Deutschland allgemein nicht sehr häufig, aber es gibt Gebiete in denen ein deutlich höheres Erbebenrisiko besteht, wie beispielsweise in Aachen und dem Erdbebengebiet Kölner Bucht (aktuelle Erdbeben) in der Erdbebenzone 3. Mit der Erdbebenzone 1 für Karlsruhe sind wir auch in einem gefährdeten Bereich (Erdbeben in Karlsruhe), wenn auch nicht im gleichen Maße. Südlich von Tübingen gibt es eine weitere Erbebenzone 3 (aktuelle Erdbeben). Erdbebenzonen in Deutschland. CC-BY 2.0 Störfix In der Auslegung werden Erdbeben als ein Katastrophen-Lastfall angenommen, und die Bemessung richtet sich auf die schwersten Erdbeben, die statistisch alle 475 Jahre auftreten können. Die ehemalige Munitionsfabrik, die nun u.a. das ZKM, die HfG und gerade die GPN18 beinhaltet, steht schon seit über 100 Jahren, und wird auch noch länger stehen, so ist dies eine für Gebäude realistische Zeitskala. In der Auslegung spielt das Gewicht der Gebäude eine große Rolle, denn die zu verarbeitende Kraft bestimmt sich nach Newton aus der Masse und Beschleunigung. In Karlsruhe muss mit einer Spitzenbodenbeschleunigung von bis zu 0.4g bzw. 3.9m/s^2 rechnen. Wie unterschiedlich dabei die Bewegung ausfallen kann, ist an verschiedenen Seismogrammen ersichtlich, die den Verlauf des Bebens mit einem Stift auf einem durchlaufenden Blatt darstellen. Die Modellierung von Erdbeben beginnt mit dem Erdbebenherd, über dem sich auf der Erdoberfläche das Epizentrum befindet. Idealisiert bewegen sich seismische Wellen vom Epizentrum aus als Raumwellen kugelförmig aus, zusätzlich gibt es aber auch Oberflächenwellen wie Rayleigh- oder Love-Wellen, die sich idealisiert kreisförmig um das Epizentrum ausbreiten. Da die horizontale Beschleunigung die stärkste Wirkung auf Gebäude hat, vereinfacht die Norm den Einfluss von Erdbeben auf Horizontalbeschleunigungen und Bodeneinflüsse. Während Erdbeben für Gebäude ein Problem darstellen können, so sind sie für die Seismische Tomographie die Informationsquelle, um Einblicke in die Erde zu erhalten. Mit optimaler Versuchsplanung kann man dafür auch die Aufstellorte optimieren, um ein möglichst optimales Bild zu erhalten, wie wir aus Modell012: Erdbeben und Optimale Versuchsplanung schon wissen. Natürlich müssen alle relevanten Lastfälle berücksichtigt werden, so kann in Karlsruhe die Windlast sich als Flächenlast teilweise stärker als der Lastfall durch Erdbeben auswirken. Das Haus wird dabei oft als Einmassenschwinger gesehen, bei aufwendigeren Geometrien aber auch als Mehrmassenschwinger, und die unterschiedlichen Belastungen in der maximalen Auslenkung in maximale statische horizontale Ersatzkräfte umgerechnet und damit vergleichbar gemacht. Ein wichtiger Startpunkt ist die Auswahl der Bemessungssituation und das Semiprobabilistische Teilsicherheitssystem, als Weiterentwicklung des Sicherheitsfaktors, bzw. der Aufteilung in verschiedene Eurocodes, die auch noch eine national unterschiedliche Behandlung ermöglichen. Bei der Lastbestimmung berücksichtigt man ständige Lasten, eine hauptsächliche nicht-ständige Last, die Haupteinwirkung, und weitere nicht-ständige Lasten, die aber durch einen probabilistischen Faktor abgemindert werden, da nicht alle nicht-ständige Lasten gleichzeitig auftreten. Aus der Festigkeit des Baumaterials wird nun die maximale Spannung berechnet, die es aufnehmen kann, und diese muss den Einwirkungen bestehen können. Eigentlich ist die DIN4149 durch den deutlich umfangreicheren Eurocode 8 abgelöst, doch ist aktuell noch die DIN4149 anzuwenden, da der Eurocode 8 zum Zeitpunkt der Aufnahme noch nicht in die technischen Baubestimmungen aufgenommen wurden. Eine Besonderheit der Bemessungssituation für erdbebensicheres Bauen ist, dass hier ein Katastrophenlastfall angenommen wird, und es daher keine allgemeinen Sicherheitsfaktoren mehr gibt. Es geht dabei nicht um den Erhalt des Gebäudes, sondern nur um die Möglichkeit Menschenleben schützen zu können. Ein Bedeutungsbeiwert beschreibt die Bedeutung des Gebäudes für Katastrophenfälle, beispielsweise haben hier landwirtschaftliche Gebäude einen Wert von 0,8 während Krankenhäuser den Wert 1,4 haben. Weiterhin wird die Nutzung durch einen Nutzungsbeiwert beschrieben, die die Belastung des Gebäudes durch die Nutzung beschreiben- diese können ständig, wie im Fall von Bibliotheken sein, oder sich häufig ändernd, wie durch Menschen, die das Gebäude besuchen. Aus dem anzusetzenden Gewicht und der Beschleunigung durch die Erdmase kann man mit dem Modell des Einmassenschwingers die modellierte Schwingung des Gebäudes simulieren. Aus dieser Simulation erhält man das Antwortspektrum des Gebäudes für unterschiedliche Erdbeben. Bildet man hier die einhüllende Kurve bzw. Hüllkurve, die in der Synthesizer-Musik auch über das ADSR-Modell beschrieben werden kann. Die Nachschwingzeiten von sehr hohen Gebäuden können so lange sein, dass es förmlich zu tanzenden Hochhäusern kommen kann. Der wichtige Wert der Schwingzeit wird durch eine vereinfachte Gebäudegeometrie berechnet. Da das Gebäude aber mehrere Resonanzfrequenzen beziehungsweise Eigenwerte der Steifigkeitsmatrix besitzt, gibt es zu jedem Mode eine eigene Schwingzeit. Die verschiedenen Schwingungen in den Teilmodellen überlagern sich in der Multimoden-Modell dann im vollen Modell. Diese vereinfachenden Verfahren ermöglichen meisst schon mit wenig Rechenaufwand sehr gute Ergebnisse, jedoch stößt das Vorgehen bei sehr verwinkelten und komplexen Baustrukturen an Grenzen- eine Verwendung des Ein- oder Mehrschwingermodells ist bei einem Gebäude wie dem Aachenmünchener Direktionsgebäude nicht denkbar. Bei der weiteren Betrachtung hat die Baugrundklasse einen wichtigen Einfluss, da diese beispielsweise bei kiesigem Untergrund die Erdbeschleunigung erheblich abschwächen kann. Der Dämpfungsbeiwert beschreibt die durch Prozesse wie Reibung dissipierte Energie. Weiterhin beschreibt der Verhaltensbeiwert die Plastitzität von Werkstoffen in Gebäuden, durch die ebenso die Schwingungsenergie verbraucht wird. Speziell werden Gebäude dazu in Duktulitätsklassen eingeteilt. Eine besondere Rolle spielen hier die Zustandsklassen, beispielsweise beim Beton und Stahlbeton: Man geht davon aus, dass der Beton im normalen Zustand von kleinen Rissen durchzogen ist, und damit in Zustandsklasse 2 liegt. In der Alterung, aber auch durch Einwirkung von äußeren Kräften wie Erdbeben, kommt es zu einem Risswachstum. Risse können mathematisch durch Bifurkationen beschrieben werden, und erzeugen sehr schnell äußerst komplexe Problemstellungen. Im Katastrophenfall erlauben wir für Stahlbeton die Zustandsklasse 3, wo der Beton gerissen sein kann und der Stahl beginnt sich zu verbiegen. Auch wenn das Gebäude danach dringenden Reparaturbedarf besitzt, so wird so viel von der Erdbebenenergie durch die Materialien verbraucht. Ein großes Problem sind dabei aber die Verbindungen, da gehärtete Schrauben spröde reißen. Ebenso haben Schweißnähte immer kleine Nahtfehler, die versagen können. Ein Ausweg sind hier so groß ausgelegte Verbindungen, so dass diese im Extremfall die Rotationsfähigkeit erhaltende Fließgelenke ausbilden und somit ein Versagen möglichst nicht in der Verbindung auftritt. An der Hochschule Karlsruhe besucht Arne eine Vorlesung von Prof. Dr. Jan Akkermann und hat sich im Zuge seines Master-Studiums mit dem Projekt beschäftigt, einem Gebäude der Hochschule ein neues Geschoss zu planen. Literatur und weiterführende Informationen A. Ötes: Die neue Erdbebennorm DIN 4149, Universität Dortmund. A. Rick: The Basics of Audio compressors, Gulaschprogrammiernacht, 2018.Seismische Sonifikationen Z. Peng: Earthquake Music J. N. Louie, The Sound of Seismic, 2015 D. V. Rogers: Sounds of Seismic - Earth System Soundscape, 2013. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 12, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/erdbeben S. Wollherr: Bruchzonen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 136, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bruchzonen A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/bezier-stabwerke
6/7/2018 • 1 hour, 24 minutes, 27 seconds
Automatic Differentiation
Gudrun talks with Asher Zarth. He finished his Master thesis in the Lattice Boltzmann Research group at the Karlsruhe Institute for Technology (KIT) in April 2018. Lattice Boltzmann methods (LBM) are an established method of computational fluid dynamics. Also, the solution of temperature-dependent problems - modeled by the Boussinesq approximation - with LBM has been done for some time. Moreover, LBM have been used to solve optimization problems, including parameter identification, shape optimization and topology optimization. Usual optimization approaches for partial differential equations are strongly based on using the corresponding adjoint problem. Especially since this method provides the sensitivities of quantities in the optimization process as well. This is very helpful. But it is also very hard to find the adjoint problem for each new problem. This needs a lot of experience and deep mathematical understanding. For that, Asher uses automatic differentiation (AD) instead, which is very flexible and user friendly. His algorithm combines an extension of LBM to porous media models as part of the shape optimization framework. The main idea of that framework is to use the permeability as a geometric design parameter instead of a rigid object which changes its shape in the iterative process. The optimization itself is carried out with line search methods, whereby the sensitivities are calculated by AD instead of using the adjoint problem. The method benefits from a straighforward and extensible implementation as the use of AD provides a way to obtain accurate derivatives with little knowledge of the mathematical formulation of the problem. Furthermore, the simplicity of the AD system allows optimization to be easily integrated into existing simulations - for example in the software package OpenLB which Asher used in his thesis. One example to test the algorithm is the shape of an object under Stokes flow such that the drag becomes minimal. It is known that it looks like an american football ball. The new algorithm converges fast to that shape. References F. Klemens e.a.: CFD- MRI: A Coupled Measurement and Simulation Approach for Accurate Fluid Flow Characterisation and Domain Identification. Computers & Fluids 166, 218-224, 2018. T. Dbouk: A review about the engineering design of optimal heat transfer systems using topology optimization. Applied Thermal Engineering 112, pp. 841-854, 2017. C. Geiger and C. Kanzow. Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Springer-Verlag, 2013. M. J. Krause and V. Heuveline: Parallel fluid flow control and optimisation with lattice Boltzmann methods and automatic differentiation. Computers & Fluids 80, pp. 28-36, 2013. A. Kamikawa and M. Kawahara: Optimal control of thermal fluid flow using automatic differentiation. Computational Mechanics 43.6, pp. 839-846, 2009. A. Griewank and A. Walther. Evaluating derivatives: principles and techniques of algorithmic differentiation. Vol. 105. SIAM, 2008.
Gudrun hat sich mit Kirsten Wohak unterhalten. Sie ist seit Januar 2018 in der Arbeitsgruppe Computational Science and Mathematical Methods von Prof. Frank tätig. Diese Gruppe schlägt eine Brücke zwischen dem Steinbuch Center for Computing und der KIT-Fakultät für Mathematik. Thema des Gespräches war jedoch ein ganz besonderes Angebot für Schülerinnen und Schüler: Das Computational and Mathematical Modeling Program (CAMMP) . Zusammen mit Maren Hattebuhr kümmert sie sich um das schon an der RWTH Aachen erprobte Konzept nun auch in Karlsruhe. Beantwortet wird die Frage: Wie funktionieren eigentlich... Animationsfilme Fitnesstracker Google GPS mp3 Shazam Solarkraftwerke Sicherung der Privatsphäre in Sozialen Netzwerken...... und was hat das mit Mathe zu tun? Anhand solchen praxisorientierter Fragestellungen aus dem eigenen Alltag werden Schüler und Schülerinnen in die Grundlagen der mathematischen Modellierung eingeführt. Dabei finden mathematische Inhalte, wie beispielsweise Winkelsätze oder Matrizenrechnung Anwendung, die bereits aus dem Unterricht bekannt sind. Neben inhaltlicher Arbeit werden in den Workshops vor allem prozessbezogene Kompetenzen gefördert. Das typische Format ist ein sogenannter CAMMP-day. Er findet jeweils am Schülerlabor Mathematik im Mathebau statt und wird auf Anfrage je nach Themenwahl mit Oberstufen- bzw. Mittelstufenkursen von ein bis zwei wissenschaftlichen Mitarbeitern/-innen durchgeführt. Die Schüler/innen erhalten morgens zunächst eine Einführung, die die Bedeutung von mathematischer Modellierung und Simulation für Wissenschaft und Industrie anhand verschiedener Beispiele veranschaulicht. Anschließend finden die Workshops statt. Nachmittags werden die Ergebnisse von Schülerinnen und Schülern vorgestellt und im Bezug auf die Anfangssituation diskutiert. Seit dem 23. April 2018 läuft für sechs Montage der Schnupperkurs Mathematik zum Thema GPS und Navigation und am heutigen Girls' day findet der Shazam-Kurs statt. Podcasts B. Böttcher: Meisterklasse, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 158, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
4/26/2018 • 35 minutes, 33 seconds
Zweiphasenströmungen
Gudrun hatte zwei Podcast-Gespräche beim FEniCS18 Workshop in Oxford (21.-23. März 2018). FEniCS ist eine Open-Source-Plattform zur Lösung partieller Differentialgleichungen mit Finite-Elemente-Methoden. Dies ist die zweite der beiden 2018er Folgen aus Oxford. Susanne Claus ist zur Zeit NRN Early Career Personal Research Fellow an der Cardiff University in Wales. Sie hat sich schon immer für Mathematik, Physik, Informatik und Ingenieursthemen interesseirt und diese Interessen in einem Studium der Technomathematik in Kaiserlautern verbunden. Mit dem Vordiplom in der Tasche entschied sie sich für einen einjährigen Aufenthalt an der Universität Kyoto. Sie war dort ein Research exchange student und hat neben der Teilnahme an Vorlesungen vor allem eine Forschungsarbeit zu Verdunstungsprozessen geschrieben. Damit waren die Weichen in Richtung Strömungsrechnung gestellt. Dieses Interesse vertiefte sie im Hauptstudium (bis zum Diplom) an der Uni in Bonn, wo sie auch als studentische Hilfskraft in der Numerik mitarbeitete. Die dabei erwachte Begeisterung für nicht-Newtonsche Fluid-Modelle führte sie schließlich für die Promotion nach Cardiff. Dort werden schon in langer Tradition sogenannte viskoelastische Stoffe untersucht - das ist eine spezielle Klasse von nicht-Newtonschem Fluiden. Nach der Promotion arbeitet sie einige Zeit als Postdoc in London am University College London (kurz: UCL) zu Fehleranalyse für Finite Elemente Verfahren (*). Bis sie mit einer selbst eingeworbenen Fellowship in der Tasche wieder nach Cardiff zurückkehren konnte. Im Moment beschäftigt sich Susanne vor allem mit Zweiphasenströmungen. In realen Strömungsprozessen liegen eigentlich immer mindestens zwei Phasen vor: z.B. Luft und Wasser. Das ist der Fall wenn wir den Wasserhahn aufdrehen oder die Strömung eines Flusses beobachten. Sehr häufig werden solche Prozesse vereinfacht modelliert, indem man sich nur eine Phase, nämlich die des Wassers genau ansieht und die andere als nicht so wichtig weglässt. In der Modellbildung für Probleme, in denen beide Phasen betrachtet werden sollen, ist das erste Problem, dass das physikalische Verhalten der beiden Phasen sehr unterschiedlich ist, d.h. man braucht in der Regel zwei sehr unterschiedliche Modelle. Hinzu treten dann noch komplexe Vorgänge auf der Grenzflächen auf z.B. in der Wechselwirkung der Phasen. Wo die Grenzfläche zu jedem Zeitpunkt verläuft, ist selbst Teil der Lösung des Problems. Noch interessanter aber auch besonders schwierig wird es, wenn auf der Grenzfläche Tenside wirken (engl. surfactant) - das sind Chemikalien die auch die Geometrie der Grenzfläche verändern, weil sie Einfluß auf die Oberflächenspannung nehmen. Ein Zwischenschritt ist es, wenn man nur eine Phase betrachtet, aber im Fließprozess eine freie Oberfläche erlaubt. Die Entwicklung dieser Oberfläche über die Zeit wird oft über die Minimierung von Oberflächenspannung modelliert und hängt deshalb u.a. mit der Krümmung der Fläche zusammen. D.h. man braucht im Modell lokale Informationen über zweite Ableitungen. In der numerischen Bearbeitung des Prozesses benutzt Susanne das FEniCS Framework. Das hat sie auch konkret dieses Jahr nach Oxford zum Workshop geführt. Ihr Ansatz ist es, das Rechengitter um genug Knoten anzureichern, so dass Sprünge dargestellt werden können ohne eine zu hohe Auflösung insgesamt zu verursachen. (*) an der UCL arbeitet auch Helen Wilson zu viscoelastischen Strömungen, mit der Gudrun 2016 in Oxford gesprochen hat. Literatur und weiterführende Informationen S. Claus & P. Kerfriden: A stable and optimally convergent LaTIn-Cut Finite Element Method for multiple unilateral contact problems, CoRR, 2017. H. Oertel jr.(Ed.): Prandtl’s Essentials of Fluid Mechanics, Springer-Verlag, ISBN 978-0-387-21803-8, 2004. S. Gross, A. Reusken: Numerical Methods for Two-phase Incompressible Flows, Springer-Verlag, eBook: ISBN 978-3-642-19686-7, DOI 10.1007/978-3-642-19686-7, 2011. E. Burman, S. Claus & A. Massing: A stabilized cut finite element method for the three field Stokes problem. SIAM Journal on Scientific Computing 37.4: A1705-A1726, 2015. Podcasts G. Thäter, R. Hill: Singular Pertubation, Gespräch im Modellansatz Podcast, Folge 162, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. H. Wilson: Viscoelastic Fluids, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 92, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
4/19/2018 • 45 minutes, 47 seconds
Wasserstofftankstellen
Gudrun unterhielt sich mit Meike Juliane Amtenbrink. Frau Amtenbrink hat von September 2017 bis Februar 2018 am Fraunhofer Institut für Solare Energiesysteme (ISE) in Freiburg Wasserstofftankstellen modelliert. Die Niederschrift der Ergebnisse bilden ihre Masterarbeit im Studiengang Energietechnik am KIT . Gudrun hat die Arbeit von Seiten des KIT als Erstgutachterin betreut. Als kohlenstofffreier Energieträger ist Wasserstoff im weltweiten Fokus der Forschung. Tanken mit Wasserstoff verspricht, den CO2-Ausstoß des Verkehrssektors zu reduzieren, zusätzlich ermöglicht die Umwandlung überschüssiger Strommengen in Wasserstoff mittels Elektrolyse dringend benötigte Flexibilität für die zukünftige Energieversorgung. Dafür müssen Tankstellen zur Verfügung stehen. Auf dem noch jungen Markt hat sich auf der Kundenseite bereits ein Standard etabliert, sodass alle Besitzerinnen eines Brennstoffzellenfahrzeugs an jeder Wasserstofftankstelle nachtanken können. Der technische Aufbau der Tankstellentechnologie ist dabei, je nach Anwendung, unterschiedlich. Teil der Arbeit war es einzuschätzen, welche Konzepte für den zukünftigen Markt eine Rolle spielen. Aufgrund der Vergleichbarkeit zwischen den relevanten Konzepten und dem in der ISE-eigenen Tankstelle umgesetzten Aufbau, wurde die institutseigene Tankstelle modelliert und die vorhandenen Messdaten genutzt, um die Plausibilität der Ergebnisse zu überprüfen. Im Rahmen vorangegangener Abschlussarbeiten wurde am Fraunhofer ISE ein Simulationsmodell eines Power-to-Gas-Systems auf Basis der PEM-Elektrolyse erstellt. Dieses Modell hatte zum Ziel, das dynamische Systemverhalten nachzubilden, Aussagen/Vorhersagen zum realen Wirkungsgrad der Anlage zu geben und die tatsächliche jährliche Wasserstofferzeugung zu prognostizieren. Darauf konnte Frau Amtenbrink aufbauen. In ihrer Arbeit wurde ein nulldimensionales, thermodynamisches Realgasmodell einer Wasserstofftankstelle in MATLAB/Simulink erstellt. Dafür wurden für die Einzelkomponenten einer Wasserstofftankstelle die Enthalpie- und Stoffbilanzen aufgestellt, in Simulink implementiert und über eine Steuerungslogik zu einem Gesamtsystem verbunden. Mit dem Tankstellenmodell können das Stand-by-Verhalten der Tankstelle und der Betankungsvorgang sekundengenau simuliert werden. Ergebnis sind die Drücke, Temperaturen und Stoffströme des Wasserstoffs an den relevanten Stellen im Gesamtsystem und der Energieverbrauch der Tankstelle, aufgeschlüsselt nach den wichtigsten Einzelkomponenten. Das Speichermodell kann auf Grundlage der Erhaltungsgleichungen über die zu- und abfließenden Stoffströme den sich ergebenden Druck und die Temperatur des Wasserstoffs im Speicher nachbilden, wobei die Realgasgleichung nach Redlich und Kwong benutzt wurde. Der Wärmeaustausch mit der Umgebung durch Konvektion und Wärmeleitung ist berücksichtigt. Das Modell ist auf verschiedene Speicher parametrisierbar und kann über die Anpassung der Geometrie- und Materialwerte sowohl für die Druckbänke an der Tankstelle, als auch für den Fahrzeugtank genutzt werden. Die Speichermodelle zeigen eine sehr gute Übereinstimmung mit der Realität. Die Drücke in Abhängigkeit der Umgebungstemperatur und die Temperaturerhöhung, die sich als Resultat einer Speicherbefüllung ergibt, können nachgebildet werden, ebenso der nach einer Befüllung erfolgende Temperaturausgleich mit Druckreduzierung. Durch das Modell für die Rohrleitungen können die Druckverluste innerhalb der Tankstelle abgebildet werden. Das Modell ist durch die Wahl der Geometrieparameter auf unterschiedliche Tankstellenkonfigurationen anwendbar. Der Kompressor wurde isentrop modelliert und die Verdichtungsarbeit mit einem isentropen Wirkungsgrad korrigiert. Der Druckanstieg, der sich durch den Kompressor beim Wiederbefüllen der Druckbank ergibt, ist durch die Simulation genau wiedergegeben. Dadurch ergibt sich, dass die Dauer der Speicherbefüllung zwischen Simulation und Messung übereinstimmt. Zur Modellierung der Kältemaschine wurde der Kältemittelkreislauf stark vereinfacht und durch eine Kälteleistung ersetzt, die von der Umgebungstemperatur abhängt. Für die wichtigsten Energieverbraucher an der Tankstelle, Kompressor und Kältemaschine, wurden Modelle erstellt, durch die der Energieverbrauch in Abhängigkeit der Betriebsführung berechnet werden kann. Nach der anschließenden Validierung kann das Modell dazu dienen, die Hauptenergieverbräuche an der Tankstelle zu quantifizieren und die Größe der einzelnen Komponeten optimal aufeinander auszulegen. Damit kann in Zukunft entschieden werden, ob zum Beispiel die Betriebsführung der Kältemaschine zur Optimierung des Gesamtwirkungsgrades verändert werden sollte. Literatur und weiterführende Informationen Pressemitteilung des H2-Tankstellen-Konsortiums App zum Auffinden von Wasserstofftankstellen sowie Karte mit Wasserstofftankstellen in Deutschland Informationen zur ersten H2-Tankstelle in Karlsruhe https://pem-electrolysis.de Homepage des Bereichs Wasserstofftechnologien am Fraunhofer ISE H.D. Baehr und S. Kabelac. Thermodynamik: Grundlagen und technische Anwendungen. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. 978-3-642- 24160-4. doi: 10.1007/978-3-642-24161-1, 2012. E. Rothuizen e.a: Optimization of hydrogen vehicle refueling via dynamic simulation. International Journal of Hydrogen Energy Vol. 38, No. 11, p. 4221-4231, 2013. A. Huss und M. Corneille. Wasserstoff-Tankstellen. Ein Leitfaden für Anwender und Entscheider. Wiesbaden: Hessisches Ministerium für Umwelt, Energie, Landwirtschaft und Verbraucherschutz, 2011. Podcasts F. Schueth, T. Pritlove: Energieforschung, Episode 12 im Forschergeist Podcast, Stifterverband/Metaebene, 2015. M. Voelter, D. Schumann: Elektromobilität, Episode 163 im omega tau Podcast, 2015.
4/12/2018 • 46 minutes, 56 seconds
Singular Pertubation
Gudrun had two podcast conversations at the FEniCS18 workshop in Oxford (21.-23. March 2018). FEniCS is an open source computing platform for solving partial differential equations with Finite Element methods. This is the first of the two episodes from Oxford in 2018. Roisin Hill works at the National University of Ireland in Galway on the west coast of Ireland. The university has 19.000 students and 2.000 staff. Roisin is a PhD student in Numerical Analysis at the School of Mathematics, Statistics & Applied Mathematics. Gudrun met her at her poster about Balanced norms and mesh generation for singularly perturbed reaction-diffusion problems. This is a collaboration with Niall Madden who is her supervisor in Galway. The name of the poster refers to three topics which are interlinked in their research. Firstly, water flow is modelled as a singularly perturbed equation in a one-dimensional channel. Due to the fact that at the fluid does not move at the boundary there has to be a boundary layer in which the flow properties change. This might occur very rapidly. So, the second topic is that depending on the boundary layer the problem is singularly perturbed and in the limit it is even ill-posed. When solving this equation numerically, it would be best, to have a fine mesh at places where the error is large. Roisin uses a posteriori information to see where the largest errors occur and changes the mesh accordingly. To choose the best norm for errors is the third topic in the mix and strongly depends on the type of singularity. More precisely as their prototypical test case they look for u(x) as the numerical solution of the problem for given functions b(x) and f(x). It is singularly perturbed in the sense that the positive real parameter ε may be arbitrarily small. If we formally set ε = 0, then it is ill-posed. The numercial schemes of choice are finite element methods - implemented in FEniCS with linear and quadratic elements. The numerical solution and its generalisations to higher-dimensional problems, and to the closely related convection-diffusion problem, presents numerous mathematical and computational challenges, particularly as ε → 0. The development of algorithms for robust solution is the subject of intense mathematical investigation. Here “robust” means two things: The algorithm should yield a “reasonable” solution for all ranges of ε, including resolving any layers present; The mathematical analysis of the method should be valid for all ranges of ε. In order to measure the error, the energy norm sounds like a good basis - but as ε^2 → 0 the norm → 0 with order ε . They were looking for an alternative which they found in the literature as the so-called balanced norm. That remains O(1) as ε → 0. Therefore, it turns out that the balanced norm is indeed a better basis for error measurement.After she finished school Roisin became an accountant. She believed what she was told: if you are good at mathematics, accountancy is the right career. Later her daughter became ill and had to be partially schooled at home. This was the moment when Roisin first encountered applied mathematics and fell in love with the topic. Inspired by her daughter - who did a degree in general science specialising in applied mathematics - Roisin studied mathematics and is a PhD student now (since Sept. 2017). Her enthusiasm has created impressive results: She won a prestigious Postgraduate Scholarship from the Irish Research Council for her four year PhD program. References R. Lin, M. Stynes: A balanced finite element method for singularly perturbed reaction diffusion problems. SIAM J. Numer. Anal., 50(5):2729–2743, 2012. T. Linß: Layer-adapted meshes for reaction-convection-diffusion problems, volume 1985 of Lecture Notes in Mathematics. Springer-Verlag, Berlin, 2010. H.-G. Roos, M. Stynes, L. Tobiska: Robust Numerical Methods for Singularly Perturbed Differential Equations, volume 24 of Springer Series in Computational Mathematics. Springer-Verlag, Berlin, 2nd edition, 2008. Podcasts M. E. Rognes: Cerebral Fluid Flow, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 134, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
4/5/2018 • 21 minutes, 57 seconds
Embryonic Patterns
In March 2018 Gudrun visited University College London and recorded three conversations with mathematicians working there. Her first partner was Karen Page. She works in Mathematical Biology and is interested in mathematical models for pattern formation. An example would be the question why (and how) a human embryo develops five fingers on each hand. The basic information for that is coded into the DNA but how the pattern develops over time is a very complicated process which we understand only partly. Another example is the patterning of neurons within the vertebrate nervous system. The neurons are specified by levels of proteins. Binding of other proteins at the enhancer region of DNA decides whether a gene produces protein or not. This type of work needs a strong collaboration with biologists who observe certain behaviours and do experiments. Ideally they are interested in the mathematical tools as well. One focus of Karen's work is the development of the nervous system in its embryonic form as the neural tube. She models it with the help of dynamical systems. At the moment they contain three ordinary differential equations for the temporal changes in levels of three proteins. Since they influence each other the system is coupled. Moreover a fourth protein enters the system as an external parameter. It is called sonic hedgehog (Shh). It plays a key role in regulating the growth of digits on limbs and organization of the brain. It has different effects on the cells of the developing embryo depending on its concentration. Concerning the mathematical theory the Poincaré Bendixson theorem completely characterizes the long-time behaviour of two-dimensional dynamical systems. Working with three equations there is room for more interesting long-term scenarios. For example it is possible to observe chaotic behaviour. Karen was introduced to questions of Mathematical Biology when starting to work on her DPhil. Her topic was Turing patterns. These are possible solutions to systems of Partial differential equations that are thermodynamically non-equilibrium. They develop from random perturbations about a homogeneous state, with the help of an input of energy. Prof. Page studied mathematics and physics in Cambridge and did her DPhil in Oxford in 1999. After that she spent two years at the Institute for Advanced Study in Princeton and has been working at UCL since 2001. References A. Turing: The Chemical Basis of Morphogenesis Philosophical Transactions of the Royal Society of London B. 237 (641): 37–72.1952 J.D. Murray: Mathematical Biology. Springer Science & Business Media, 2013. ISBN 978-3-662-08539-4 M. Cohen, K.M. Page e.a: A theoretical framework for the regulation of Shh morphogen-controlled gene expression. Development, 141(20), 3868-3878, 2014. N. Balaskas e.a.: Gene regulatory logic for reading the Sonic Hedgehog signaling gradient in the vertebrate neural tube. Cell. 148, 273-284, 2012. J. Panovska-Griffiths e.a.: A gene regulatory motif that generates oscillatory or multiway switch outputs. J. Roy. Soc. Interface. 10.79, 2013. Podcasts L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. Omega Tau-Podcast 069: Grundlagen der Zellbiologie Omega Tau-Podcast 072: Forschung in der Zellbiologie Konscience-Podcast 024, Kapitel 5: Das Hochlandgen aus "Wie kam das bloß durch die Ethikkommission?"
3/29/2018 • 51 minutes, 30 seconds
Optimale Akkuladung
Gudrun sprach mit Veronika Auinger, die in ihrer Masterarbeit Ladevorgänge für Akkumulatoren (Akkus) optimal regelt. Die Arbeit entstand in enger Zusammenarbeit mit Christian Fleck und Andrea Flexeder von der Firma BOSCH (Abt. Control Theory). In einer Zeit, in der klar wird, das Erdöl als Energielieferant sehr bald ersetzt werden muss, ist die Suche nach alternativen Antriebsarten im Transport von hoher Priorität. Die populärste ist das Elektrofahrzeug, auch wenn es noch immer darum kämpft, sich in den Köpfen der Menschen zu etablieren. Ein wesentlicher Grund dafür ist die sehr begrenzte Speicherkapazität und die lange Ladezeit der in diesen Fahrzeugen eingebauten Akkumulatoren (*). Wir sind von Verbrennungsmotoren an eine große Reichweite und große Flexibilität gewöhnt. Wenn Elektroautos dieselben Anforderungen erfüllen sollen wie Benzinautos, spielen die Akkus und deren Laderegime(s) eine zentrale Rolle. Automobilzulieferer wie BOSCH oder MAHLE entwickeln schon jetzt einen beträchtlichen Teil der Technologie und Software, die in modernen Fahrzeugen steckt. Nun kommt die Entwicklung von zukunftsträchtigen Akkus als neues Thema und Produkt hinzu. Das Ziel der Masterarbeit von Frau Auinger war es, eine intelligente Ladestrategie zu finden, die zwei Aspekte des Batteriesystems minimiert: die Zeit, die benötigt wird, um die Batterie vollständig aufzuladen, und den Kapazitätsverlust des Akkus, der durch die Ladung verursacht wird. Eine gleichzeitige Minimierung ist jedoch problematisch, da beide Ziele im Allgemeinen nicht gemeinsam erreicht werden können: Eine minimale Ladezeit führt in der Regel zu einem hohen Kapazitätsverlust und umgekehrt. Der Grund hierfür ist, dass zur Verkürzung der Ladezeit mit höheren Strömen aufgeladen werden muss, was wiederum zu einer kürzeren Lebensdauer der Akkus führt. So gewinnen intelligente Ladestrategien an Bedeutung, bei denen der Ladestrom einem vorgegebenen Profil folgt, der den Verlust der Lebensdauer minimiert und die Ladezeit akzeptabel kurz hält. Diese Protokolle lassen sich als Lösungen für optimale Steuerungsprobleme bestimmen. In der Praxis erfordert dies Algorithmen, die Lösungen in Echtzeit liefern, was das Ziel dieser Masterarbeit war. Zu Beginn dieses Projektes lag eine Formulierung des Steuerungsproblem von Carolin Eckhard vor, das von ihr durch eine einfache Implementierung in Matlab gelöst worden war. Das Modell der Lithium-Ionen-Batterie besteht darin aus drei Teilen: Ein Zellspannungsmodell, ein Zelltemperaturmodell und ein Alterungsmodell, das den Kapazitätsverlust in der Zelle beschreibt. Da der Code nicht für Echtzeitzwecke taugte, wurde er von Adrian Tardieu beschleunigt, indem er Gradientenprojektionsmethoden einsetzte. In der Arbeit von Frau Auinger wurde ein vereinfachtes optimales Ladeproblem hergeleitet für das eine analytische Lösung mit Hilfe von Pontrjagin's Satz berechnet werden kann. Diese dient als erste Trajektorie im iterativen Algorithmus, was das Verfahren in der Regel beschleunigt. Die analytisch abgeleiteten Trajektorien haben sich als sehr nahe an den numerisch berechneten Lösungen des ursprünglichen Problems erwiesen und wurden daher als Ausgangsbasis für den existierenden Algorithmus verwendet. (*) Man spricht - eigentlich unzutreffend - auch gern von Batterien, weil es im englischen battery heißt. Literatur und weiterführende Informationen L.S. Pontrjagin, W.Boltjanski, R.V. Gamkrelidze, E.F. Mishchenko: Mathematische Theorie optimaler Prozesse. Oldenbourg 1967. N. Tauchnitz. Das Pontrjaginsche Maximumprinzip für eine Klasse hybrider Steuerungsprobleme mit Zustandsbeschränkungen und seine Anwendung. Doktorarbeit, Brandenburgische Technische Universität Cottbus-Senftenberg, 2010. J. Yan e.a.: Model Predictive Control-Based Fast Charging for Vehicular Batteries. Energies 2011, 4, 1178-1196; doi:10.3390/en4081178. A. Barré, B. Deguilhem, S. Grolleau, M. Gérard, F. Suard, and D. Riu. A review on lithium-ion battery ageing mechanisms and estimations for automotive applications. Journal of Power Sources, 241:680 689, 2013. J. Sabatier, J. M. Francisco, F. Guillemard, L. Lavigne, M. Moze, and M. Merveillaut. Lithium-ion batteries modeling: A simple fractional differentiation based model and its associated parameters estimation method. Signal Processing, 107 290 301, 2015. C. Eckard. Model predictive control for intelligent charging strategies of high-voltage batteries. Master's thesis, Universität Stuttgart, May 2016. Podcasts M. Maier: Akkumulatoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 123, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/akkumulatoren A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. D. Schumann: Elektromobilität, Gespräch mit Markus Voelter im Omega Tau Podcast, Folge 163, 2015. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016. Cleanelectric - Der Podcast rund um das Thema Elektromobilität
3/22/2018 • 30 minutes, 43 seconds
Zuschnittsoptimierung
Guntram Scheithauer ist Mathematiker und forscht an der TU Dresden. Seit seiner Promotion gilt sein Interesse der diskreten Mathematik und der Optimierung. Sein Einstieg in dieses Teilgebiet der Mathematik waren Rundreiseprobleme. Anfang der 1980er Jahre verschob sich das Hauptarbeitsgebiet dann auf Zuschnittsoptimierung und Packungsprobleme. Ausgangspunkt hierfür waren konkrete Anfragen aus der Holzindustrie. Ein noch sehr einfach formulierbares eindimensionales Zuschnittsproblem ist: Man hat Material der Länge l vorliegen und möchte daraus Teile einer bestimmten Länge so zuschneiden, dass der Abfall minimiert wird. Die Anzahl der Teile ist dabei nicht fest vorgegeben. Mathematisch lässt sich das auf das sogenannte Rucksackproblem zurückführen. Typisch ist, dass eine Nebenbedingung (die Länge) auftritt und nur ganzzahlige Werte sinnvoll sind, also ein ganzahliges lineares Optimierungsproblem vorliegt. Prinzipiell geht es im Rucksackproblem darum, dass man ein vorgegebenes Volumen des Rucksackes (seine Kapazität) gegeben hat, in das man beliebig verformbare Teile einpackt. In der Praxis so etwas wie Kleidung und Wanderutensilien, die man alle mehr oder weniger nötig braucht. Das heißt, jedes potentiell mitzunehmenden Teil hat zwei relevante Eigenschaften: Es braucht ein bestimmtes Volumen im Rucksack und es hat einen bestimmten Wert an Nützlichkeit. Das Problem ist gelöst, wenn man die Packung mit dem größten Nützlichkeits-Wert gefunden hat. Theoretisch kann man natürlich alle Möglichkeiten durchgehen, den Rucksack zu packen und dann aus allen die nützlichste aussuchen, aber in der Praxis ist die Anzahl an Möglichkeiten für Packungen sehr schnell so groß, dass auch ein schneller Computer zu lange braucht, um alle Fälle in akzeptabler Zeit zu betrachten. Hier setzt die Idee des Branch-and-Bound-Verfahrens an. Der sogenannte zulässige Bereich, d.h. die Menge der Lösungen, die alle Bedingungen erfüllen, wird zunächst schrittweise in Teilbereiche zerlegt. Auf diesen Teilbereichen werden die Optimierungsprobleme gelöst und dann aus allen die beste Variante gesucht. Leider können dies extrem viele Teilprobleme sein, weshalb der "Bound"-Teil des Verfahrens versucht, möglichst viele der Teilprobleme von vornherein als nicht aussichtsreich zu verwerfen. Der Erfolg des Branch-and-Bound steht und fällt mit guten Ideen für die Zerlegung und die zugehörigen Schranken. Der Rechenaufwand ist für einen konkreten Fall jeweils schwer schätzbar. Ein weiteres Verfahren für ganzzahlige Optimierungsprobleme ist Dynamische Optimierung. Ursprünglich wurde es für die Optimierung von sequentiellen Entscheidungsprozessen entwickelt. Diese Technik zur mehrstufigen Problemlösung kann auf Probleme angewendet werden, die als verschachtelte Familie von Teilproblemen beschrieben werden können. Das ursprüngliche Problem wird rekursiv aus den Lösungen der Teilprobleme gelöst. Deshalb ist der Aufwand pseudopolynomial und es erfordert etwa gleichen Rechenaufwand für gleich große Probleme. Weitere Verfahren zur Lösung von ganzzahligen Optimierungsproblemen sind bekannt unter dem Namen Schnittebenenverfahren und Branch-and-Cut. Nach der Berechnung des Optimums der stetigen Relaxation werden Schritt für Schritt neue Nebenbedingungen zum Problem hinzugefügt. Mit Hilfe dieser zusätzlichen Ungleichungen werden nicht ganzzahlige Variablen der kontinuierlichen Lösungen gezwungen, ganzzahlige Werte anzunehmen. Oftmals ist eine Kombination mit einer Verzweigungsstrategie erforderlich. Eine nahe liegende Verallgemeinerung des oben beschriebenen einfachsten Zuschnittsproblems ist der Zuschnitt von rechteckigen Teilen aus einer Spanplatte. In der Holzindustrie macht eine Kreissäge das meist mit Schnitten von einem Rand der Platte zum gegenüberliegenden. Das sind sogenannte Guillotine-Schnitte. Das trifft auch für Zuschnitt von Glas und Fliesen zu. Hier ist die Anpassung der eindimensionalen Algorithmen noch relativ einfach auf den zweidimensionalen Fall möglich. Richtig schwierig wird es aber, wenn beliebige Polygone als Teile auftreten oder gar solche mit krummlinigen Rändern. Ein typisches Anwendungsproblem ist, dass eine optimale Anordnung von Einzelteilen eines Kleidungsstück auf einer Stoffbahn in der Regel nicht übertragbar auf eine andere Konfektionsgröße ist. Eine weitere Familie von Fragestellungen ist: Wie groß muss ein Quadrat sein, um Platz für eine vorgegebene Anzahl von Kreise mit Durchmesser 1 zu bieten? Das ist mathematisch sehr einfach zu formulieren aber in der Regel schwierig zu lösen, da das zugehörige Optimierungsproblem nicht konvex ist. Literatur und weiterführende Informationen Rucksackproblem Algorithmen für Rucksackproblem Rucksackproblem in Anwendungen Josef Kallrath: Gemischt-Ganzzahlige Optimierung. Modellierung in der Praxis. Vieweg/Springer 2013. Guntram Scheithauer: Zuschnitt- und Packungsoptimierung - Problemstellungen, Modellierungstechniken, Lösungsmethoden. Vieweg/Springer 2008. Guntram Scheithauer: Introduction to Cutting and Packing Optimization - Problems, Modeling Approaches, Solution Methods Springer 2018. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/topologieoptimierung K. Berude: Sensoreinsatzplanung, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 154, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2018. http://modellansatz.de/sensoreinsatzplanung
3/15/2018 • 39 minutes, 27 seconds
Meisterklasse
Gudrun war im März 2018 an der TU Dresden zu Gast. Sie bot dort einen Workshop in der Meisterklasse Mathematik an. Außerdem nutzte sie den Aufenthalt in Dresden für ein Gespräch mit Björn Böttcher. Er ist Initiator dieser Veranstaltungsreihe und koordiniert die Schülerförderung an der Fakultät für Mathematik an der TU Dresden. Die Meisterklasse Mathematik in Dresden ist ein Angebot für Schülerinnen und Schüler der siebten Klassen. Mathelehrerinnen und Lehrer aus Dresden und Umgebung dürfen ihre Mathematik-interessierten Schülerinnen und Schüler vorschlagen, und aus der Gruppe der nominierten werden von der Fakultät 60 Kinder ausgesucht. An drei Samstagen im März werden diese in den Willers-Bau eingeladen. Sie erleben dort Mathematik von einer neuen und überraschenden Seite und befassen sich am Vormittag und Nachmittag mit je einem Thema, das der Dozent oder die Dozentin für sie aufbereitet hat. Wichtig dabei ist auch, dass sich in der Gruppenarbeit zwischen den Kindern ganz natürlich Kontakte ergeben und sie erleben, dass es viele Gleichgesinnte gibt die ihre Freude an Mathematik, dem Knobeln und dem forschenden Denken teilen. Auf die Idee, eine Meisterklasse in Dresden zu etablieren kam Björn durch ein Buch über solche Masterclasses in Großbritannien (von Michael J. Sewell herausgegeben). Unkenrufen zum Trotz hat er es im Jahr 2014 zum ersten Mal probiert und hatte mit der Idee Erfolg. Es werden seitdem jedes Jahr mehr als genug Kinder nominiert und die Atmosphäre in den Workshops ist einzigartig. Alle sind mit Begeisterung dabei und selbst für eigentlich rethorisch gemeinte Fragen finden sich stets einige Wortmeldungen im Publikum. Wer auch einmal einen Kurs anbieten möchte, sollte sich einfach bei ihm melden: bjoern.boettcher@tu-dresden.de Neben den Meisterklassen gibt es auch andere Angebote für Mathe-Interessierte in Dresden. Besonders bekannt ist wahrscheinlich die Mathematische Schülergesellschaft für die Klassen 6-12. Literatur und weiterführende Informationen Michael J. Sewell (ed): Mathematics Masterclasses: Stretching the Imagination, Oxford University Press, 1997. Aufgabensammlung für Schülerzirkel Mathematik Schülerförderung der Fakultät Mathematik TU Dresden Über die Lebensdauer von Seifenblasen - eine Exponentialverteilung im Experiment?. Erscheint im MNU-Journal Björn Böttcher und die Seifenblasen. Podcasts E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor A. Kirsch: Lehramtsausbildung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 104, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/lehramtsausbildung C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom
3/8/2018 • 38 minutes, 8 seconds
Mikroelektromechanische Systeme
Christina Lienstromberg von der Leibniz Universität in Hannover war im Februar 2018 zu Gast an unserer Fakultät. In einem Vortrag stellte sie mathematische Forschungsergebnisse zu Modellen für Mikrosysteme (auch mikroelektromechanische Systemen bzw. MEMS) vor. Christina hat in Hannover Mathematik studiert und auch promoviert und ist dort als Postdoc tätig. MEMS ist eine Technologie mikroskopisch kleiner Apparate mit beweglichen Teilen. Die Geräte bestehen aus Bauteilen mit einer Größe zwischen 1 und 100 Mikrometern (d.h. 0,001 bis 0,1 mm), und MEMS-Bauteile haben in der Regel eine Größe von 20 Mikrometern bis zu einem Millimeter (d.h. 0,02 bis 1,0 mm). Sie bestehen in der Regel aus einer Zentraleinheit, die Daten verarbeitet - dem Mikroprozessor - und mehreren Komponenten, die mit der Umgebung interagieren, wie beispielsweise winzigen Sensoren. Aufgrund des großen Flächen-Volumen-Verhältnisses von MEMS sind die Kräfte, die durch den umgebenden Elektromagnetismus (z.B. elektrostatische Aufladungen und magnetische Momente) und die Fluiddynamik (z.B. Oberflächenspannung und Viskosität) hervorgerufen werden, wichtiger als bei größeren mechanischen Geräten. MEMS befinden sich unter anderem in Airbags und Laptops und beobachten die Beschleunigung, um entsprechend reagieren zu können. So stellen sie fest, dass sich ein Computer im freien Fall befindet und setzen während des Sturzes den Lesekopf der Festplatte in Parkposition. Oder sie dienen der mechanische Bildstabilisierung in Fotoapparaten. Interessante Weiterentwicklungen werden unter dem Namen Mikrofluidik zusammengefaßt und sind schon jetzt im Einsatz in Tintenstrahl-Druckköpfen oder Lab-on-a-Chip-Systemen. Die mathematischen Modelle, die Christina und ihre Kollegen betrachten, sind zweidimensionale Schnitte durch ein Gebiet, das eine feste Bodenplatte hat und eine bewegliche Membran darüber, die auf beiden Seiten fest eingespannt ist, aber auf ein elektrisches Potential durch Bewegung reagiert. Viel Information über das System wird in der Durchlässigkeit der Membran ausgedrückt, auch Permittivitätsprofil genannt. Unterschiedliche Systeme von Differentialgleichungen dienen als Modelle, je nach physikalischer Herleitung. In jedem Fall ist ein entweder semi- oder quasilineares hyperbolisches oder parabolisches Evolutionsproblem für die Auslenkung einer elastischen Membran mit einem elliptischen Problem gekoppelt, das das elektrostatische Potential im Bereich zwischen der elastischen Membran und der starren Grundplatte bestimmt. Von besonderem Interesse bei allen Modellen ist der Einfluss verschiedener Klassen von Permittivitätsprofilen. Außerdem ist das mögliche Auftreten von Singularitäten nach endlicher Zeit spannend, wenn sich z.B. die Membran und die Bodenplatte treffen. Es zeigt sich, dass das System für alle Werte der angelegten Spannung räumlich und zeitlich wohlgestellt ist. Darüber hinaus wird überprüft, dass die Lösung auch global in der Zeit existiert, vorausgesetzt, dass die angelegte Spannung einen bestimmten kritischen Wert nicht überschreitet. Literatur und weiterführende Informationen J. Escher, P. Laurençot, C. Walker: A parabolic free boundary problem modeling electrostatic MEMS, Arch. Rational Mech. Anal., 211,389-417, 2014. C. Lienstromberg, J. Escher: A survey on second-order free boundary value problems modelling MEMS with general permittivity profile, Discrete Contin. Dyn. Syst. Ser. S 10, no. 4, 745–771, 2017. C. Lienstromberg, J. Escher: Finite-time singularities of solutions to microelectromechanical systems with general permittivity, Ann. Mat. Pura Appl. (4) 195 (2016), no. 6, 1961–1976. J.A. Pelesko, D.H. Bernstein: Modeling MEMS and NEMS, CRC Press Inc, ISBN 1584883065, 2002. X. Zhao: Modeling and Simulation of MEMS Devices, PhD-Dissertation submitted to the Faculty of the Virginia Polytechnic Institute and State University, 2004.
3/1/2018 • 34 minutes, 57 seconds
Poroelastische Medien
Jonathan Fröhlich hat im Juli 2017 seine Masterarbeit zum Thema "Heterogeneous Multiscale Methods for Poroelastic Media" eingereicht. Sie wurde von Professor Christian Wieners in unserem Institut betreut. Strömungs- und Transportphänomene in sogenannten porösen Medien spielen eine wichtige Rolle in einem breiten Spektrum von Bereichen und Anwendungen, wie zum Beispiel in der Landwirtschaft, der Biomedizin, der Baugeologie und der Erdöltechnik. Betrachtet man beispielsweise den Boden, so stellt man fest, dass der Sand, das Gestein oder der Kies keine homogene Masse ist mit homogenen Materialeigenschaften, sondern aus unzähligen unterschiedlich großen und in den physikalischen Eigenschaften variierenden Teilen bestehen. Die hohe Heterogenität solcher Medien führt auf eine große Komplexität, die im Modell des porösen Mediums stark vereinfacht betrachtet wird. Es liegt deshalb die Frage nahe: Wie verallgemeinert man herkömmliche Modelle für poröse Medien so, dass nicht gleich die komplette Zusammensetzung benötigt wird, aber mehr von der Struktur berücksichtigt wird? Die vorliegende Arbeit und unser Gespräch konzentrieren sich auf einen Spezialfall, nämlich die einphasige Strömung durch poroelastische Medien. Sie sind gekennzeichnet durch die Wechselwirkung zwischen der Beanspruchung der intrinisischen Struktur und der Strömung der Flüssigkeit. Konkret erzwingt die Änderung des Flüssigkeitsdrucks eine Beanspruchung des Materials, wodurch es beschleunigt und bewegt wird. Ein Beispiel hierfür ist der Blutfluß durch Adern. Das Blut verändert im Fließen ständig die konkrete Geometrie der elastisch verformbaren Adern und gleichzeitig ändern die Adern die Fließrichtung und -geschwindigkeit des Blutes. Dieser Prozeß wird mit bestimmten partiellen Differentialgleichungen (PDEs) modelliert. Jonathan verwendete das von Biot (1941) eingeführte linearisierte Modell und erweitert es zu einem quasistatischen Konsolidationsmodell für die Bodenmechanik. Solche Probleme sind charakterisiert durch die enorme Größe des betrachteten Gebietes, beispielsweise mehrere Kilometer an Flussbett. Dies steht im Kontrast zu den sehr kleineskaligen geometrischen Informationen, wie Sandkorngrößen und -formen, die einen Einfluss auf das System haben. Die standardmäßige Finite-Elemente-Methode zur numerischen Lösung dieses Systems von PDEs wird nur dann gute Ergebnisse liefern, wenn die Auflösung des Netzes wirklich extrem hoch ist. Dies würde zu nicht realisierbaren Rechenzeiten führen. Deshalb wird eine Idee von E und Engquist benutzt, die sogenannte Finite Element Heterogene Multiskalen Methode (FE-HMM) von 2003. Sie entkoppelt den heterogenen Teil und löst ihn durch ein mikroskopisch modelliertes Problem. Das makroskopische Problem braucht dann nur ein viel gröberes Netz und benutzt die Informationen aus dem mikroskopischen Teil als Daten. Mathematisch gesehen verwendet die Theorie eine schwache Formulierung mit Hilfe von Bilinearformen und sucht nach Lösungen in Sobolev-Räumen. Die passende Numerik für das makroskopische Problem ist eine gemischte Finite-Elemente-Methode für ein gestörtes Sattelpunktproblem. Deshalb müssen für Existenz und Eindeutigkeit von schwachen Lösungen bestimmte Bedingungen erfüllt sein, die der klassischen LBB-Bedingung (auch inf-sup-Bedingung genannt) ähnlich sind. Das zu lösende mikroskopische Problem ist elliptisch und wird mithilfe klassischer Homogenisierungstheorie hergeleitet, wobei zusätzliche Bedingungen zur Sicherung der Zwei-Skalen Konvergenz erfüllt werden müssen. Literatur und weiterführende Informationen Maurice A. Biot: General Theory of Three‐Dimensional Consolidation Journal of Applied Physics 12, 155, 1941. E. Weinan, Björn Engquist: The Heterogeneous Multiscale MethodsCommunications in Mathematical Sciences, Volume 1, Number 1, 87-132, 2003. M. Sahimi: Flow and Transport in Porous Media and Fractured Rock Wiley Weinheim, 2011. Assyr Abdulle e.a.: The heterogeneous multiscale method Acta Numerica Volume 21, pp. 1-87, 2012. Podcasts J. Fröhlich: Getriebeauswahl, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 028, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
2/22/2018 • 28 minutes, 47 seconds
Turbulence
Martina Hofmanová has been working as a professor at the University of Bielefeld since October 2017. Previously, she was a Junior Professor at TU Berlin from February 2016 onwards, and before that an Assistant Lecturer, there. She studied at the Charles University in Prague, and got her PhD in 2013 at the École normale supérieure de Cachan in Rennes. Her time in Germany started in 2013 when she moved to the Max Planck Institute for Mathematics in the Sciences in Leipzig as a postdoc.Gudrun and Martina talk about randomness in the modeling of fluid motion. This topic is connected to the study of turbulent flow. Of course, we observe turbulence all around us, i.e. chaotic behaviour of the pressure and the velocity field in fluid flow. One example is the smoke pattern of a freshly extinguished candle. Its first part is laminar, then we observe transitional turbulent flow and fully turbulent one the further away the smoke travels. A second example is Rayleigh Bénard convection. Under the influence of a temperature gradient and gravity, one observes convection rolls when the temperature difference between bottom and top becomes large enough. If we look more closely, one can prescribe the motion as a mean flow plus random fluctuations. These fluctuations are difficult to measure but their statistical properties are reproduced more easily. A general procedure in physics and science is to replace expensive time averages by ensemble averages, which can be calculated together on a parallel computer. The concept why this often works is the so-called ergodic hypothesis. To justify this from the mathematical side, the main problem is to find the right measure in the ensemble average. In the model problem one can see that the solution is continuously dependent on the initial condition and the solution operator has a semigroup property. For random initial conditions, one can construct the solution operator correspondingly. Already with this toy problem one sees that the justification of using ensemble averages is connected to the well-posedness of the problem. In general, this is not apriori known. The focus of Martina's work is to find the existence of steady solutions for the compressible flow system, including stochastic forces with periodic boundary conditions (i.e. on the torus). At the moment, we know that there are global weak solutions but only local (in time) strong solutions. It turned out that the right setting to study the problem are so-called dissipative martingale solutions: Unfortunately, in this setting, the velocity is not smooth enough to be a stochastic process. But the energy inequality can be proved. The proof rests on introducing artificial dissipation in the mass conservation, and a small term with higher order regularity for the density. Then, the velocity is approximated through a Faedo-Galerkin approximation and a lot of independent limiting processes can be carried out successfully. The project is a collaboration with Dominic Breit and Eduard Feireisl. References M. Hofmanová: Stochastic partial differential equations, Lecture notes, Technical University of Berlin, 2016. D. Breit, E. Feireisl, M. Hofmanová, B. Maslowski: Stationary solutions to the compressible Navier-Stokes system driven by stochastic forces, preprint, 2016. D. Breit, E. Feireisl, M. Hofmanová: Local strong solutions to the stochastic compressible Navier-Stokes system, preprint, 2016. D. Breit, E. Feireisl, M. Hofmanová: Compressible fluids driven by stochastic forcing: The relative energy inequality and applications, Comm. Math. Physics 350, 443-473, 2017. D. Breit, M. Hofmanová: Stochastic Navier-Stokes equations for compressible fluids, Indiana Univ. Math. J. 65 (4), 1183-1250, 2016. Podcasts N. Vercauteren: Lokale Turbulenzen, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 144, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. http://modellansatz.de/lokale-turbulenzen B.Valsler, D. Ansell: The Science of Turbulence, The Naked Scientists Podcast, 2010.
2/1/2018 • 30 minutes, 11 seconds
Sensoreinsatzplanung
Wenn Naturkatastrophen passieren, ist schnelle Hilfe gefragt. Besonders nach Überschwemmungen oder Erdbeben ist es sehr wichtig, so schnell wie möglich Informationen über das betroffene Gebiet zu erhalten. Dazu befasst sich Kim Berude mit dem mathematischen Modell und Optimierung zur Einsatzplanung von Sensoren und Geräten am IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung, in Karlsruhe und spricht mit Sebastian Ritterbusch darüber. Ursprünglich hat Kim Berude in Freiberg an der Technischen Universität Bergakademie Freiberg Angewandte Mathematik studiert, um dann auf eine Stellenausschreibung des IOSB die Chance zu nutzen, im Bereich der Operations Research etwas Praxisluft zu schnuppern. Die Aufgabe der Sensoreinsatzplanung führt direkt auf ein Vehicle Routing Problem bzw. Tourenplanungsproblem, ähnlich wie es täglich Paketdienstleister erfüllen. Die Hauptaufgabe liegt darin die Sensoren oder Assets möglichst effizient an die verschiedenen Zielorte zu bringen, die Herausforderung liegt aber darin, gleichzeitig verschiedene Nebenbedingungen zu erfüllen. Im Falle der Sensoreinsatzplanung können die Nebenbedingungen durch Reihenfolgen der Abarbeitung, Zeitfenster oder in begrenzen Resourcen der Fahrzeuge liegen, alles das muss geeignet modelliert werden. Eine vereinfachte Fassung des Tourenplanungsproblems ist das Traveling Salesperson Problem, bei dem die Aufgabe besteht, für eine handelnde Person, eine optimale kürzeste Route durch eine festgelegte Anzahl von Städten zu finden und jede dieser Städe nur einmal anzufahren. Schon dieses Problem ist in der Klasse der NP-Probleme, die nicht deterministisch in polynomialer Zeit lösbar erscheinen. Das bedeutet, dass die erforderliche Rechenleistung oder Rechenzeit für eine Lösung sehr schnell sehr extrem ansteigt. Entsprechend ist auch das allgemeinere Tourenplanungsproblem ebenso rechenintensiv. In der Sensoreinsatzplanung gibt es gegenüber dem Tourenplanungsproblem zusätzlich die besondere Herausforderung, dass eine sehr heterogene Flotte, also sehr unterschiedliche Sensoren und zugehörige Fahrzeuge, zum Einsatz kommen soll. In der mathematischen Optimierungstheorie nehmen diskrete Probleme eine besondere Stellung ein. Zunächst einmal muss man sich bewusst werden, dass durch jedes Fahrzeug und jede Nebenbedingung weitere Variablen und Gleichungen entstehen, und damit eine höhere Detailtiefe der Modellierung sich unmittelbar auf die Dimension des zu lösenden Problems auswirkt. Ein Standardverfahren um lineare kontinuierliche Optimierungsprobleme zu lösen ist das Simplex-Verfahren. Das funktioniert aber nicht für diskrete Probleme, da es beliebige Zwischenwerte als Ergebnisse erhalten kann. Man könnte alle diskreten Möglichkeiten natürlich auch ausprobieren, das könnte aber sehr lange dauern. Eine Lösung sind hier die Branch-and-Bound-Verfahren, die das Problem zunächst kontinuierlich lösen, um eine untere Grenze des erwartbaren Ergebnisses zu erhalten. Aus einer nicht ganzzahligen Lösungsvariable werden nun zunächst die nächsten ganzzahligen Varianten in einer Fallunterscheidung untersucht und das Problem in der reduzierten Fassung gelöst. Gibt es eine erste ganzzahlige Lösung, so gibt es nun Grenzen in beide Richtungen, die ermöglichen die Zahl der noch auszuprobierenden Varianten stark einzugrenzen. Sind alle Varianten probiert, bzw. durch die Abschätzungen ausgeschlossen, so erhält man deutlich effizienter eine Lösung als wenn man alle Varianten durchprobiert. Der A*-Algorithmus ist sehr verwandt zum Branch-and-Bound-Verfahren und wird zum Routing auf Wegenetzen verwendet, beispielsweise im Terrain Projekt. Hier werden Grenzen durch Luftlinie und ebenso gefundene erste Lösungen bestimmt und ebenso recht schnell zum kürzesten Weg zwischen zwei Punkten zu gelangen. Eine Verfeinerung des Branch-and-Bound Verfahrens ist das Branch-and-Cut Verfahren, wo das durch lineare Ungleichungen entstehende Polyeder durch zusätzliche ganzzahlige Lösungen präferierende Einschränkungen weiter einschränkt, und damit das effiziente Simplex-Verfahren noch zielgerichteter einsetzt. Dieses Verfahren und weitere Verfeinerungen wurden im Podcast zu Operations Research mit Marco Lübbecke weiter erklärt. Die bisher betrachteten Verfahren liefern immer exakt die optimale Lösung, sie sparen nur Zeit, in dem sie unnötige Berechnungen für schlechtere Varianten einsparen. Ist das Problem jedoch so komplex, dass die exakten Verfahren nicht in annehmbarer Zeit eine Lösung liefern, so können Heuristiken helfen, das Problem im Vorfeld in der Komplexität deutlich zu reduzieren. Ein Ansatz ist hier die Neighborhood Search, wo gerade in der Umgebung gefundener regulärer Lösungen nach besseren Varianten gesucht wird. Die spannende Frage ist hier, mit welchen Akzeptanzkriterien zielgerichtet nach passenden Lösungen in der Nachbarschaft gesucht werden. Die Verfahren wurden an realitätsnahen Testfällen erprobt und evaluiert, wo Kim Berude in ihrer Diplomarbeit den Aspekt des Mehrfacheinsatzes gegenüber schon vorhandenen Optimierungslösungen hinzugefügt hat. Die Fragestellungen kommen keineswegs aus rein wissenschaftlichem Interesse, sondern werden am IOSB direkt benötigt. Die Messeinrichtungen kommen überall auf der Welt zum Einsatz, selbst bei Großveranstaltungen wie 'Das Fest' in Karlsruhe. Die Verfahren der Tourenplanung haben sehr viele Einsatzmöglichkeiten und ein berühmtes Beispiel ist, dass Speditionen durch Vermeiden von Linksabbiegen Zeit und Geld sparen. Literatur und weiterführende Informationen P. Toth, D. Vigo: The vehicle routing problem, Society for Industrial and Applied Mathematics, 2002. I. H. Osman: Metastrategy simulated annealing and tabu search algorithms for the vehicle routing problem, Annals of operations research 41.4: 421-451, 1993. P. Shaw: Using constraint programming and local search methods to solve vehicle routing problems, International Conference on Principles and Practice of Constraint Programming. Springer, Berlin, Heidelberg, 1998. D. Pisinger, S. Ropke: Large neighborhood search, Handbook of metaheuristics. Springer US, 399-419, 2010. S. Ropke, D. Pisinger: An adaptive large neighborhood search heuristic for the pickup and delivery problem with time windows, Transportation science 40.4: 455-472, 2006. Z. Wang, W. Liang, X. Hu: A metaheuristic based on a pool of routes for the vehicle routing problem with multiple trips and time windows, Journal of the Operational Research Society 65.1: 37-48, 2014. D. Cattaruzza, N. Absi, D. Feillet: Vehicle routing problems with multiple trips, 4OR 14.3: 223-259, 2016. Studiengang Angewandte Mathematik an der TU Freiberg Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/operations-research S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung U.Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen L. Osovtsova: Logistik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik
1/25/2018 • 58 minutes, 46 seconds
Luftspalt
Gudrun unterhält sich mit Tabitha Hoffmann über ihre im Dezember 2017 vorgelegte Masterarbeit mit dem Titel: On the Applicability of Computational Fluid Dynamics on the Determination of Elements in the Thermal Circuit of Electrical Machines. Das Projekt war eine Zusammenarbeit mit der Firma SEW-Eurodrive in Bruchsal. Das Temperaturverhalten von Elektromotoren ist von großem Interesse, denn kennt man die Temperaturverteilung im Elektromotor, kann man Aussagen über das Betriebsverhalten treffen und einzelne Komponenten effektiv vor Überhitzung schützen. Besonders interessant ist dabei der Raum zwischen Rotor und Stator der elektrischen Maschine, der als Luftspalt bezeichnet wird. Um die Auswirkung von Geometrieänderungen auf den thermischen Widerstand am Luftspalt abschätzen zu können, könnten ergänzende Computersimulationen große Vorteile bringen. Im Rahmen der Arbeit von Tabitha wird erstmals prinzipiell untersucht, ob aktuell die numerische Strömungsrechnung (engl. Computational Fluid Dynamics, kurz CFD) - gekoppelt mit Wärmeübertragungssimulationen - den thermischen Widerstand am Luftspalt genau genug bestimmen kann, um hier von Nutzen zu sein. In erster Näherung lässt sich der Luftspalt relativ elementar als Ringraum darstellen. Noch interessanter wären natürlich Ergebnisse, die auf einer möglichst präzisen Geometrienachbildung des Luftspaltes im Computer beruhen. Eine umfangreiche experimentelle wie theoretische Studie liegt zum Glück in Form der Dissertation von Becker aus dem Jahr 1957 vor. Beckers experimentelle Daten sind fundiert und präzise und bilden somit eine gute Grundlage für die Validierung der Simulationsergebnisse in der Masterarbeit. Exemplarisch werden von Tabitha zwei typische CFD-Zugänge gewählt: Einerseits Ansys CFX, da es ein weit verbreitetes und bei SEW gut eingeführtes kommerzielles Softwarepaket ist (es arbeitet als Black box auf der Basis von Finite-Volumen-Methoden ) und andererseits OpenLB, welches eine open source Forschungssoftware ist (auf der Basis von Lattice Boltzmann Methoden (LBM)), die in der Gruppe von Mathias Krause ständig weiterentwickelt wird. Beide Softwarepakete haben je eigene Vor- und Nachteile und stellen zwei typische Fälle dar. Das betrifft z. B. die anwenderfreundliche Benutzeroberfläche in einer kommerziellen Software, die jedoch auf den konkreten Anwendungsfall nur eingeschränkt speziell zugeschnitten werden kann vs. ein in der Schnittstelle nicht so ausgereiftes Produkt, für das jedoch recht schnell konkrete Module für das vorliegende Problem programmiert werden können. Außerdem sind auch die numerischen Paradigmen beider Pakete grundlegend unterschiedlich. Ansys CFX ist klassisch auf die numerische Lösung von kontinuierlich formulierten partiellen Differentialgleichungen spezialisiert, während LBM ein diskretes Modell für Strömung wählt und dieses dynamisch entfaltet. Als möglichst einfacher Einstieg in die Thematik wird in der Arbeit zunächst von Wärmeübertragung zwischen konzentrischen Zylindern mit rotierendem Innenzylinder ausgegangen und das Problem ohne axiale Strömung betrachtet. Man spricht von einer Taylor-Couette Strömung. Ist die Geschwindigkeiten des inneren Zylinders hoch genug, entstehen Taylor-Wirbel. Die Simulationsergebnisse wurden mit den Messergebnissen von Becker und der Theorie zur freien Konvektion in horizontalen Ringen validiert. Anschließend wurden die Löser auf eine realistischere Geometrie angewendet mit Schlitzen am Stator (allerdings wieder ohne axiale Strömung). Zusammenfassend kann gesagt werden, dass die Simulationsergebnisse in guter Übereinstimmung mit den Messergebnissen und der Theorie sind, aber nicht genau die gleiche kritische Taylorzahl liefern. Ein grundlegendes Problem für beide numerische Zugänge ist, dass der Luftspalt im Vergleich zu den Radien von Rotor und Stator sehr klein ist. Literatur und weiterführende Informationen ANSYS, Inc.: Innovative Turbulence Modeling: SST Model in ANSYS CFX/ ANSYS Inc. Version: 2011, Forschungsbericht ANSYS, Inc.: Ansys CFX Documentation 25th November 2017 Batchelor, G. K.: An introduction to fluid dynamics. Cambridge Univ. Press 1967. Becker, K. M.: An experimental and theoretical study of heat transfer in an annulus with an inner rotating cylinder, M.I.T., Diss., 1957 Chorin, A. J. ; Marsden, J. E.: A mathematical introduction to fluid mechanics. 2. ed. Springer Lancial, N. e.a.: Taylor-Couette-Poiseuille flow and heat transfer in an annular channel with a slotted rotor. In: International Journal of Thermal Sciences 112 (2017), Nr. Supplement C, 92 - 103. Hydrodynamische Instabilität
1/11/2018 • 33 minutes, 55 seconds
Kinetische Theorie
Gudrun wollte sich mit unserem neuen Kollegen über sein hauptsächliches Forschungsthema, die kinetische Theorie unterhalten. Diese Denkweise wurde zur Modellierung von Gasen entwickelt und ist inspiriert von physikalischen Vorstellungen, die kinetische Energie als inhärente Eigenschaft von Materie ansieht. Die kinetische Gastheorie schaut auf die mikroskopische Ebene, um schließlich makroskopische Größen wie Wärme und Temperatur besser zu erklären. Im sogenannten idealen Gas bewegen sich unfassbar viele kleine Massepunkte entsprechend der Newtonschen Mechanik frei, ungeordnet und zufällig im Raum, stoßen dabei ab und zu zusammen und wir empfinden und messen den Grad der Bewegungsaktivität der Teilchen als Wärme. Die Einheit, die man dieser Größe zunächst zuwies war Kalorie von lat. Calor=Wärme. Heute ist die richtige SI-Einheit für Energie (und damit auch Wärme) das Joule. Die messbare Größe Temperatur ist damit vereinfacht ausgedrückt die mechanische Engergie im Gassystem und das Modell liefert eine kinetische Theorie der Wärme. Man kann es aber auch als Vielteilchensystem von mikroskopischen Teilchen ansehen aus denen sich in klar definierten (unterschiedlichen) Grenzwertprozessen makroskopische Größen und deren Verhalten ableiten lassen. Die Untersuchung dieser Grenzwerte ist eine mathematisch sehr anspruchsvolle Aufgabe und bis heute ein offenes Forschungsfeld, in dem nur Stück für Stück spezielle Fragen beantwortet werden. Eine Schwierigkeit ist dabei nämlich, dass automatisch immer sehr unterschiedliche Skalen nebeneinander existieren und in ihrer Interaktion richtig gefaßt und verstanden werden müssen. Außerdem ist in der Regel jeder Grenzwert, für den sich interessante Forschungsergebnisse ergeben, innerhalb der Theorie eine Singularität. Schon Hilbert hatte 1900 die axiomatische Fassung der Physik zwischen Mechanik und Wahrscheinlichkeitsrechnung als eines der wichtigen mathematischen Probleme für das 20. Jahrhundert dargestellt. Wir sind seitdem vorangekommen, aber es bleibt noch sehr viel zu tun. Zum Beispiel ist die mögliche Korreliertheit zwischen den Teilchenbewegungen für Gase eine offene Frage (außer für kurze Zeiten). Ein Vorteil gegenüber der Zeit Hilberts ist heute, dass wir inzwischen auch den Computer benutzen können, um Modelle zu entwickeln und zu analysieren. Dafür muss man natürlich geeignete numerische Methoden entwickeln. In der Arbeit von Martin Frank sind es in der Regel Integro-Differentialgleichungen mit hyperbolischer partieller Differentialgleichung für die Modellierung von Bewegungen ohne Dämpfung. Diese haben schon durch die Formulierung viele Dimensionen, nämlich jeweils 3 Orts- und 3 Geschwindigkeitskomponenten an jedem Ort des Rechengebietes. Deshalb sind diese Simulationen nur auf großen Parallelrechnern umsetzbar und nutzen High Performance Computing (HPC). Hieraus erklärt sich auch die Doppelrolle von Martin Frank in der Verantwortung für die Weiterentwicklung der HPC-Gruppe am Rechenzentrum des KIT und der Anwendung von Mathematik auf Probleme, die sich nur mit Hilfe von HPC behandeln lassen. Sehr interessant ist in dieser Theorie die gegenseitige Beeinflussung von Numerik und Analysis in der Behandlung kleiner Parameter. Außerdem gibt es Anknüpfungspunkte zur Lattice Boltzmann Research Group die am KIT das Software-Paket OpenLB entwickeln und anwenden. Auch wenn sich geschichtlich gesehen die kinetische Theorie vor allem als Gastheorie etabliert hat, ist die Modellierung nicht nur in Anwendung auf Gase sinnvoll. Beispielsweise lassen sich Finanzmärkte aus sehr vielen unabhängig handelnden Agenten zusammensetzen. Das Ergebnis der Handlungen der Agenten ist der Aktienpreis - sozusagen die Temperatur des Aktienmarktes. Es lassen sich dann aufgrund dieses Modells Eigenschaften untersuchen wie: Warum gibt es so viele Reiche? Außerdem geht es auch darum, die richtigen Modellannahmen für neue Anwendungen zu finden. Zum Beispiel ist ein Resultat der klassischen Gastheorie das Beer-Lambertsche Gesetz. Es besagt, dass Photonen durch Wolken exponentiell abgeschwächen werden. Messungen zeigen aber, dass dies bei unseren Wolken gar nicht gilt. Wieso? Dafür muss man schon sehr genau hinschauen. Zunächst heißt das wohl: Die zugrunde liegende Boltzmann-Gleichung ist für Wolken eine zu starke Vereinfachung. Konkret ist es die Annahme, dass man sich die Wolken als homogenes Medium vorstellt wahrscheinlich nicht zutreffend, d.h. die Streuzentren (das sind die Wassertropfen) sind nicht homogen verteilt. Um ein besseres Modell als die Boltzmann-Gleichung herzuleiten müsste man nun natürlich wissen: Welche Art der Inhomogenität liegt vor? Martin Frank hat Mathematik und Physik an der TU Darmstadt studiert, weil er schon in der Schulzeit großes Interesse an theoretischer Physik hatte. Im Studium hat er sich schließlich auf Angewandte Analysis spezialisiert und darin auch nach dem Diplom in Mathematik an der TU Darmstadt weiter gearbeitet. In dieser Zeit hat er auch das Diplom in Physik abgeschlossen. In der Promotion an der TU Kaiserslautern wurde es aber die numerische Mathematik, der er sich hauptsächlich zuwandte. In der eigenen universitären Lehre - aber auch in speziellen Angeboten für Schülerinnen und Schüler - pendelt er zwischen Projekt- und Theorie-zentriertem Lehren und Lernen. Literatur und weiterführende Informationen M. Frank, C. Roeckerath: Gemeinsam mit Profis reale Probleme lösen, Mathematik Lehren 174, 2012. M. Frank, M. Hattebuhr, C. Roeckerath: Augmenting Mathematics Courses by Project-Based Learning, Proceedings of 2015 International Conference on Interactive Collaborative Learning, 2015. Simulating Heavy Ion Beams Numerically using Minimum Entropy Reconstructions - SHINE M. Frank, W. Sun:Fractional Diffusion Limits of Non-Classical Transport Equations P. Otte, M. Frank: Derivation and analysis of Lattice Boltzmann schemes for the linearized Euler equations, Comput. Math. Appl. Volume 72, 311–327, 2016. M. Frank e.a.: The Non-Classical Boltzmann Equation, and Diffusion-Based approximations to the Boltzmann Equation, SIAM J. Appl. Math. 75, 1329–1345, 2015. M. Frank, T. Goudon: On a generalized Boltzmann equation for non-classical particle transport, Kinet. Relat. Models 3, 395-407, 2010. M. Frank: Approximate models for radiative transfer, Bull. Inst. Math. Acad. Sinica (New Series) 2, 409-432, 2007.
12/21/2017 • 25 minutes, 52 seconds
Zerstäubung
Corina Schwitzke ist Gruppenleiterin im Institut für thermische Strömungsmaschinen (ITS) am KIT. Gudrun wollte gern ein Gespräch über partikelbehaftete Strömungen mit ihr führen, denn dies ist ein wichtiges Thema in beiden Arbeitsgruppen. In Corinas Institut gilt das Interesse vor allem der Zerstäubung von Kerosin zu feinen Tröpfchen in Flugtriebwerken Seit 10 Jahren gibt es dort Strömungssimulation mit einer sogenannten Partikelmethode. Die Partikel in dieser Anwendung sind Stützstellen der Rechenmethode und repräsentieren die Flüssigkeit, z.B. Kerosin, und das Gas, d.h. die verdichtete Luft. Vom Blickpunkt der Simulation aus sind die Partikel eigentlich nur Diskretisierungspunkte, die sich mit der Strömung mitbewegen. Sie repräsentieren dabei ein Volumen und die benutzten Koordinaten "schwimmen" mit dem Fluid, d.h. die Methode benutzt ein Lagrange-Koordinatensystem. Die Gleichungen, die der Simulation zugrunde liegen, sind die Navier-Stokes Gleichungen - zunächst isotherm. Falls die Temperaturänderung mitbetrachtet werden muss, dann erfolgt das durch das Lösen der Energiegleichung, für die die diskrete Fassung sehr einfach zu realisieren ist. Das für den Zerstäubungsprozess gut geeignete numerische Verfahren, das am ITS umgesetzt wurde (und dort auch noch weiter entwickelt wird) ist Smoothed particle Hydrodynamics (SPH). Die Methode wurde zu Beginn der 1970er Jahre für die Simulation von Galaxie-Entstehung entwickelt. Ein großer Vorteil ist, dass das Verfahren sich extrem gut parallel implementieren läßt und die Simulation Gebiete ausspart, wo zunächst nichts passiert. Außerdem ist es einfacher, die Physik des Tröpfchenzerfalls zu modellieren als mit den klassischen kontinuumsmechanischen Ansätzen. Der wichtigste Aspekt für die Simulation der Kraftstoffzerstäubung ist die Oberflächenspannung. Sie muss physikalisch und numerisch richtig beschrieben werden und führt dann dazu dass ein Flüssigkeitsfilm in Tropfen zerfällt. Hier geht das Wissen um Oberflächenspannungskoeffizienten ein, die aus Experimenten gewonnen werden ebenso wie die erwartbaren Kontaktwinkel an Wänden. Das Kräftegleichgewicht von angreifenden Scher- und Oberflächenkräften muss die modellierende Physik abbilden - die numerischen Partikel bekommen daraus direkt eine Geschwindigkeit zugewiesen, die auch ausdrückt, ob der Film reißt oder zusammenhängend bleibt. Diese Partikelmethode vermeidet die Probleme von gitterbasierten Verfahren beim Reißen des Films, denn Grenzflächen werden automatisch mittransportiert. Durch die gut skalierende parallele Implementierung ist es möglich, mit einigen Milliarden Partikeln zu rechnen. Die Ergebnisse der Simulationen haben vielfältige Anwendungen. Eine ist es Schadstoffemission zu minimieren. Das ist möglich durch erzwingen der vollständigen Verbrennung des Kraftstoffes oder durch die Vermeidung der Entstehung von Stick- und Schwefeloxiden im Prozess. Das kann durch die Kraftstoffverteilung und über die Temperaturniveaus gesteuert werden. Eine andere Anwendung, die mit diesen Ideen schon funktioniert, ist die Kühlung von Zahnrädern in Getrieben durch einen Flüssigkeitsstrahl. In Zukunft soll auch die Simulation von Zerstäubung einer Biomasse möglich werden, die nichtnewtonsche Fließeigenschaften hat. Das große Ziel am ITS, das in naher Zukunft umgesetzt werden soll, ist ein virtueller Prüfstand für Zerstäubungsprozesse. Corina Schwitzke (geb. Höfler) hat Verfahrenstechnik an der Uni Karlsruhe studiert mit einem Schwerpunkt in Richtung Strömungsmechanik und Verbrennungstechnik. Ihre Diplomarbeit fertigte sie in Los Angeles zu einem Thema im Kontext von Verbrennung an. Es folgte eine Promotion an der KIT-Fakultät Maschinenbau in Karlsruhe, in der sie die Grundlage für die physikalische Modellierung der Zerstäubung mittels der SPH-Methode leistete. Studierende aus der Technomathematik und Informatik sowie dem Maschinenbau unterstützen das Institut in der Implementierung des Verfahrens.Literatur und weiterführende Informationen M.C. Keller e.a.:Turbomachinery Technical Conference and Exposition : Volume 2B - Turbomachinery Proceedings of ASME Turbo Expo 2017, Charlotte, North Carolina, USA, 26th - 30th June 2017, Art.Nr. GT2017-63594, ASME, New York (NY). doi:10.1115/GT2017-63594, 2017. M.C. Keller e.a.: Numerical Modeling of Oil-Jet Lubrication for Spur Gears using Smoothed Particle Hydrodynamics, 11th International SPHERIC Workshop, Munich, Germany, June 13-16, 2016, 69-76. S. Braun e.a.: Simulation of Primary Atomization: Assessment of the Smoothed Particle Hydrodynamics (SPH) Method ICLASS 2015 / 13th International Conference on Liquid Atomization and Spray Systems : August 23-27, 2015, Tainan, Taiwan. Ed.: Ta-Hui Lin C. Höfler:Entwicklung eines Smoothed Particle Hydrodynamics (SPH) Codes zur numerischen Vorhersage des Primärzerfalls an Brennstoffeinspritzdüsen. Dissertation. 2013. Karlsruhe. doi:10.5445/IR/1000048880 J.J. Monaghan: Smoothed Particle Hydrodynamics. Annu. Rev. Astrophys. 1992.Podcasts T. Henn: Partikelströmungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 115, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. S. Höllbacher: Finite Volumen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 122, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
12/14/2017 • 31 minutes, 7 seconds
Mikrowellen
Gudrun unterhält sich diesmal mit Johanna Mödl. Johanna hat von August bis Oktober 2017 ihre Bachelorarbeit Analytische und numerische Untersuchungen zum mikrowelleninduzierten Temperaturanstieg von zylindrischen Probekörpern aus Beton geschrieben. Der Hintergrund war ein Thema aus dem Institut für Massivbau und Baustofftechnologie (Abt. Baustoffe und Betonbau). Dort wird untersucht, wie hochenergetische Mikrowellen solche Temperaturunterschiede in (trockenen) Betonkörpern erzeugen, dass der Werkstoff an der Oberfläche zerstört wird. Um Erfahrungswerte im Umgang mit diesem Verfahren zu erhalten, werden derzeit Laborexperimente durch das Institut für Massivbau und Baustofftechnologie und das Institut für Hochleistungsimpuls- und Mikrowellentechnik, beides Institute des Karlsruher Instituts für Technologie, durchgeführt. Auf Basis der Messergebnisse wird versucht, den Vorgang durch einfache Gleichungen zu beschreiben, um vorhersagen zu können, wie er sich in größerem Maßstab verhält. Aufgrund der Komplexität des Prozesses werden nur vereinfachende Modelle betrachtet. Da diese sich durch partielle Differentialgleichungen beschreiben lassen, sollte der Vorgang während der Bachelorarbeit aus mathematischer Sicht analysiert werden. Die Ausbreitung der Mikrowellen-Energie als Wärme im Baustoff wird durch die Wärmeleitungsgleichung gut beschrieben. Dies ist eine in der Mathematik wohlstudierte Gleichung. Im Allgemeinen lassen sich aber analytische Lösungen nur schwer oder gar nicht berechnen. Daher mussten zusätzlich numerische Verfahren gewählt und implementiert werden, um eine Approximation der Lösung zu erhalten. Johanna entschied sich für das Finite-Differenzen-Verfahren im Raum und ein explizites Eulerverfahren in der Zeitrichtung, da beide einfach zu analysieren und zu implementieren sind. Erfreulicherweise stimmt die numerisch auf diese Weise approximierte Lösung mit den experimentellen Ergebnissen in den hauptsächlichen Gesichtspunkten überein. Die Wärme breitet sich von der Quelle in den Beton aus und es kommt im zeitlichen Verlauf zu einer kontinuierlichen Erwärmung in den Körper hinein. Das größte Problem und die vermutliche Ursache dafür, dass die Meßdaten noch nicht ganz genau mit den Simulationen übereinstimmen ist, dass man physikalisch sinnvollere Randbedingungen bräuchte. Im Moment wird - wie üblich - davon ausgegangen, dass am Rand des Betonzylinders, wo nicht die Energie eintritt, der Körper Umgebungstemperatur hat. Hier bräuchte man eine phyiskalische Modellierung, die das korrigiert. Literatur und weiterführende Informationen W. Hackbusch: Theorie und Numerik elliptischer Differentialgleichungen, Springer Spektrum, Wiesbaden, 4. Auflage, 2017. B. Lepers e.a.: A drying and thermoelastic model for fast microwave heating of concrete. Global Digital Central, Frontiers in Heat and Mass Transfer, 2014. M. Umminger e.a.: Ablation kontaminierter Oberflächen zementgebundener Bauteile beim Rückbau kerntechnischer Anlagen. Abschlussbericht, BMBF- Förderkennzeichen 02S8709 und 02S8719, Februar 2015.
12/7/2017 • 20 minutes, 28 seconds
Wahlprognosemodelle
Gudrun hat sich mit Oliver Beige unterhalten. Im Gespräch geht es um die theoretische Seite von Modellen für Wahlprognosen. Dabei beziehen sie sich in vielen Beispielen auf den Wahlkampf in den USA und insbesondere auf die Besonderheiten der Kampagne von Donald Trump. Die Gelegenheit bot sich vor einem gemeinsamen Konzertbesuch in Berlin-Neukölln in der Alten Welt Siralti. In der Theorie sind Wahlprognosemodell traditionell in der Politologie verankert, wurden aber immer mehr durch ökonomische Modelle verbessert. Die größte Veränderung der letzten Jahre ist, dass es immer mehr empirische Daten gibt, die auch zum Teil der Öffentlichkeit zur Verfügung stehen. Solche Daten und Diskussionen zur Wertung finden sich z.B. auf der Webseite FiveThirtyEight. Große Berühmtheit erreichte schließlich Nate Silver dadurch, dass er 2008 in 49 von 50 US-Bundeststaaten das Ergebnis der US-Präsidentschaftswahlen korrekt vorhergesagt hatte. Im Wahljahr 2012 stimmte seine Vorhersage sogar in allen 50 Staaten. Seine Ergebnisse erzielte er dabei lediglich durch Aggregation von veröffentlichten Umfrageergebnissen. Im Wahljahr 2016 hat aber Donald Trump die Wahl gewonnen obwohl Nate Silvers Modelle (und die Modelle ähnlich arbeitender Wahlforscher) die Wahrscheinlichkeit dafür, dass Hillary Clinton die Präsidentschaftswahl für sich entschieden wird, auf 70% - 99% beziffert hatten. Es stellt sich die Frage, wo der Fehler dieser Prognosemodelle lag. Wenn man im Jahr 2016 genau zuhörte, gab es auch Stimmen, die Donald Trump schon im Frühjahr als wahrscheinlichen Gewinner der Wahlen sahen - z.B. die Zeitung Los Angeles Times. Sie wurden in den Medien zwar lieber als Ausreißer dargestellt, behielten aber schließlich recht. Wieso? Sie hatten den Demographiewandel in den USA in ihre Modellbildung einbezogen. Um zu verstehen, was damit gemeint ist, muss man zunächst einmal klarer beschreiben, wie US-Wahlen traditionell bisher abliefen, und welche Modelle daraus abgeleitet wurden. Es gibt ein schönes Denkmodell, das veranschaulicht, wie das sogenannte Hotelling Gesetz (1929) wirkt. Man stelle sich zwei Eisverkäufer am Strand vor. Wie sollten sie jeweils ihren Stand so positionieren, dass sie möglichst viele Kunden anziehen? Die stille Annahme dabei ist, dass die Badenden gleichmäßig über den Strand verteilt sind und alle irgendwann Lust auf ein (genau ein) Eis bekommen. Das verblüffende Ergebnis ist: Ein Equilibrium der Einflussbereiche der beiden Verkäufer stellt sich ein, wenn beide in der Mitte des Strandes nebeneinander stehen. Im Wahlkampf in den USA folgt man dieser Strategie, indem beide endgültigen Präsidentschaftskandidaten wenig ideologisch unterscheidbar aufgebaut werden. Begünstigt wird das auch durch das mehrstufige Wahlsystem, denn die Vorwahlen (Primaries) kann man dazu nutzen, dass die extremeren Kandidaten herausgefiltert werden. Dann entscheidet über den Sieg schließlich vor allem die erfolgreiche Mobilisierung der Wechselwähler. Eine (stillschweigende) Voraussetzungen dafür, dass von der Ähnlichkeit der Positionen der eigene Kandidat profitiert ist, dass die Wahlbeteiligung hoch ist. Das ist in den USA leider immer weniger der Fall. Dass die Wahlen 2016 anders verliefen als gewohnt, zeigte sich, als bei den Republikanern die Establishmentkandidaten keine Chance gegen den idologisch extremen Trump hatten. Bei den Demokraten konnte jedoch die moderatere Hillary Clinton den ideologisch positionierten Bernie Sanders ruhig stellen. Das bricht mit den bisher gültigen Annahmen der Wahlvorhersagemodelle: Hotellings Model funktioniert nicht mehr. Aber nur weniger der Modelle erkennen die veränderte Situation und reagieren mit neuen Prognosemodellen. Trump hatte dann schließlich auch Erfolg mit seiner Strategie, die Clinton-Wählerschaft zu entmutigen überhaupt zur Wahl zu gehen und die eigene - eigentlich kleine - Clientel extrem zu mobilisieren. Den Trend zur Radikalisierung der Republikaner beobachtet man tatsächlich schon eine Weile. Er setzte etwa mit der Wahl von Reagan ein. Es gab die inzwischen sprichwörtlichen "27%" -- Wähler, die auch einen völlig unqualifizierten rechtsgerichteten Kandidaten wählen. Der sprichwörtliche Name wurde erfunden, nachdem bei der Senatswahl in Illinois ein erkennbar aussichtsloser Kandidat gegen den damals unbekannten Obama 27% der Stimmen erhielt. Diese Zahl ist seitdem eher gestiegen. Für Wahlprognosen braucht es also Modelle, die dieses bekannte menschliche Verhalten besser berücksichtigen. Keith T. Poole und Howard Rosenthal sammeln alle Stimmen im amerikanischen Kongress - das sind ja einfache Ja/Nein Entscheidungen - und analysieren sie fortlaufend. Ihre Methoden lieferten Politikwissenschaftlern erstmals rigorose quantitative Methodiken für Ideologiehörigkeit von Entscheidern über die Zeit der Existenz der USA hinweg. Man nennt dies die Nominal Three-Step Estimation. Literatur und weiterführende Informationen Eisverkäufer Modell K.T. Poole, H. Rosenthal: A Spatial Model for Legislative Roll Call Analysis GSIA Working Paper No. 5–83–84, 1983. K.T. Poole, H. Rosenthal: Congress: A Political-Economic History of Roll Call Voting. New York: Oxford University Press, 1997. K.T. Poole, H. Rosenthal: Congress: Ideology and Congress New Brunswick, Transaction Publishers, 2007. NOMINATE and American Political History: A Primer. W-NOMINATE in R: Software and Examples H. Hotelling: Stability in Competition Economic Journal 39: 41–57, 1929. Voteview, the online voting data repository started by Poole & Rosenthal. Poll-Aggregatoren erklären, warum sie danebenlagen.
11/23/2017 • 40 minutes, 9 seconds
Weather Generator
Gudrun is speaking with the portuguese engineer Bruno Pousinho. He has been a student of the Energy Technologies (ENTECH) Master program. This is an international and interdisciplinary program under the label of the European Institute of Innovation and Technology (EIT) inbetween a number of European technical universities. Bruno spent his second master year at the Karlsruhe Institute of Technology (KIT). Gudrun had the role of his supervisor at KIT while he worked on his Master's thesis at the Chair of Renewable and Sustainable Energy Systems (ENS) at TUM in Garching. His direct contact person there was Franz Christange from the group of Prof. Thomas Hamacher. Renewable energy systems are a growing part of the energy mix. In Germany between 1990 and 2016 it grew from 4168 GW to 104024 GW. This corresponds to an annual power consumption share of 3.4% and 31.7%, respectively. But in the related research this means a crucial shift. The conventional centralized synchronous machine dominated models have to be exchanged for decentralized power electronic dominated networks - so-called microgrids. This needs collaboration of mechanical and electrical engineers. The interdisciplinary group at TUM has the goal to work on modeling future microgrids in order to easily configure and simulate them. One additional factor is that for most renewable energy systems it is necessary to have the right weather conditions. Moreover, there is always the problem of reliability. Especially for Photovoltaics (PV) and wind turbines Weather phenomena as solar irradiation, air temperature and wind speed have to be known in advance in order to plan for these types of systems. There are two fundamentally different approaches to model weather data. Firstly the numerical weather and climate models, which provide the weather forecast for the next days and years. Secondly, so-called weather generators. The numerical models are very complex and have to run on the largest computer systems available. For that in order to have a simple enough model for planning the Renewable energy resources (RER) at a certain place weather generators are used. They produce synthetic weather data on the basis of the weather conditions in the past. They do not predict/forecast the values of a specific weather phenomenon for a specific time but provides random simulations whose outputs show the same or very similar distributional properties as the measured weather data in the past. The group in Garching wanted to have a time dynamic analytical model. The model is time continuous which grant it the ability of having any time sampling interval. This means it wanted to have a system of equations for the generation of synthetic weather data with as few as possible parameters. When Bruno started his work, there existed a model for Garching (developped by Franz Christange) with about 60 parameters. The aim of Bruno's work was to reduce the number of parameters and to show that the general concept can be used worldwide, i.e. it can adapt to different weather data in different climate zones. In the thesis the tested points range from 33º South to 40º North. In the synthesis of the weather generator the crucial tool is to use stochastic relations. Mostly the standard normal distribution is applied and shaped for the rate of change and corelation between RER. In particular this means that it describes the fundamental behavior of weather (mean, standard deviation, time- and cross-correlation) and introduces them into white noise in an analytical way. This idea was first introduced for crop estimation by Richardson in 1985. Time-dependence works on different time scales - through days and through seasons, e.g.. In the Analysis it is then necessary to parametrize the measured weather data and to provide a parameter set to the weather model. Bruno started his Master course in Lisbon at Instituto Superior tecnico (IST). In his second year he changed to KIT in Karlsruhe and put his focus on Energy systems. In his thesis he uses a lot of mathematics which he learned during his Bachelor education and had to recall and refresh. The results of the project are published in the open source model 'solfons' in Github, which uses Python and was developed in MATLAB. References F. Christange & T. Hamacher: Analytical Modeling Concept for Weather Phenomena as Renewable Energy Resources, in IEEE International Conference on Renewable Energy Research and Applications (ICRERA), 2016. doi: 10.1109/ICRERA.2016.7884551 P. Ailliot, D. Allard, P. Naveau, C. D. Beaulieu, R. Cedex: Stochastic weather generators, an overview of weather type models, Journal de la Société Française de Statistique, Vol. 156, No 1, pp. 1-14, 2015. C.L. Wiegand, A.J. Richardson: Leaf area, light interception, and yield estimates from spectral components analysis, Agron. J., 76, 543, 1984. solfons: Artificial wheater data for energy system modeling, Software at GitHub. Podcasts S. Seier, T. Alexandrin: Blindstrom - Der Energie Podcast, 2016-2017. M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. K. A. Zach, L. Bodingbauer: Energiespeicher, PHS186 in der Physikalischen Soiree, 2013. F. Trieb, T. Pritlive: Energie der Zukunft, RZ033 im Raumzeit Podcast, Metaebene Personal Media, 2012.
11/16/2017 • 38 minutes, 24 seconds
Dämpfung viskoser Flüssigkeiten
Gudrun und Karoline Disser trafen sich am Rand eines Seminarvortrages an der TU in Darmstadt. Dort arbeitet Karoline am internationalen Graduiertenkolleg Mathematical Fluid Dynamics als Postdoc. Der Forschungsgegenstand, über den die beiden schließlich ins Gespräch kamen, ist die Bewegung starrer Körper, in denen eine Flüssigkeit eingeschlossen ist. Ein recht anschauliches Beispiel hierfür ist die Frage, wie man herausfinden kann, ob ein Ei schon gekocht oder noch roh ist. Wenn man es auf einer glatten Fläche aufrecht stehend rotieren lässt, bleibt das gekochte Ei fast aufrecht, während sich das rohe Ei schnell hinlegt und weiter um eine kurze Achse rotiert. Die Flüssigkeit verhindert die Präzession um die lange Achse. Allgemeiner ausgedrückt untersucht Karoline Trägheitsbewegungen gekoppelter Systeme, die aus einem starren Körper bestehen mit einem Hohlraum, der vollständig mit einer viskosen Flüssigkeit gefüllt ist. Sie zeigt mathematisch, dass bei beliebigen Anfangsdaten mit endlicher kinetischer Energie, jede korrespondierende schwache Lösung im Laufe der Zeit in eine gleichmäßige Rotation übergeht. Darüber hinaus ist diese Rotation nur um die Trägheitsachse mit dem größeren Trägheitsmoment stabil. Anschaulich ist das bei einem symmetrischen Körper oft die geometrisch kürzeste Achse. Unabhängig von der Geometrie und den Parametern zeigt dies, dass - wenn das System genug Zeit hat - das Vorhandensein von Flüssigkeit Präzession des Körpers verhindert. Die theoretischen Untersuchungen wurden durch numerische Simulationen begleitet. In diesem Video zu einem Experiement eines mit Flüssigkeit gefülltem starrem Körpers wird der Effekt illustriert, dass wenn er zuerst um die lange Achse angedreht wird, in der freien Bewegung schnell zu einer Rotation um eine kurze Achse findet. Interessant ist auch der Fall, wenn sich das flüssige Material nicht ähnlich wie Wasser verhält, sondern ein sogenanntes Nichtnewtonsches Fluid ist. Hierfür gibt es viele Anwendungen - zum Beispiel, wenn auch elastische Verformungen möglich sind. Das heißt konkret: In den partiellen Differentialgleichungen treten noch mehr nichtlineare Terme auf als im Fall der Navier-Stokes Gleichungen für wasserähnliche Stoffe. Für diese Terme müssen neue Techniken entwickelt werden. Literatur und weiterführende Informationen K. Disser: Strong Solutions for the Interaction of a Rigid Body and a Viscoelastic Fluid, Journal of Mathematical Fluid Mechanics 15(4), 2012. K. Disser e.a.: L^p -theory for strong solutions to fluid-rigid body interaction in Newtonian and generalized Newtonian fluids, Transactions of the American Mathematical Society 365(3), 2013. K. Disser: Asymptotic behaviour of a rigid body with a cavity filled by a viscous liquid, arXiv:1405.6221, 2014. K. Disser e.a.: Inertial Motions of a Rigid Body with a Cavity Filled with a Viscous Liquid, Archive for Rational Mechanics and Analysis 221(1):1-40, 2016. Podcasts H. Wilson: Viscoelastic Fluids, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 92, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
11/9/2017 • 39 minutes, 50 seconds
Advanced Mathematics
Gudrun Thäter and Jonathan Rollin talk about their plans for the course Advanced Mathematics (taught in English) for mechanical engineers at the Karlsruhe Institute of Technology (KIT). The topics of their conversation are relevant in the mathematical education for engineers in general (though the structure of courses differs between universities). They discuss how to embrace university mathematics, how to study, what is the structure of the educational program and what topics will be covered in the first semester in Karlsruhe. For students starting an engineering study course it is clear, that a mathematical education will be an important part. Nevertheless, most students are not aware that their experiences with mathematics at school will not match well with the mathematics at university. This is true in many ways. Mathematics is much more than calculations. As the mathematical models become more involved, more theoretical knowledge is needed in order to learn how and why the calculations work. In particular the connections among basic ideas become more and more important to see why certain rules are valid. Very often this knowledge also is essential since the rules need to be adapted for different settings. In their everyday work, engineers combine the use of well-established procedures with the ability to come up with solutions to yet unsolved problems. In our mathematics education, we try to support that skills insofar as we train certain calculations with the aim that they become routine for the future engineers. But we also show the ideas and ways how mathematicians came up with these ideas and how they are applied again and again at different levels of abstraction. This shall help the students to become creative in their engineering career. Moreover seeing how the calculation procedures are derived often helps to remember them. So it makes a lot of sense to learn about proofs behind calculations, even if we usually do not ask to repeat proofs during the written exam at the end of the semester. The course is structured as 2 lectures, 1 problem class and 1 tutorial per week. Moreover there is a homework sheet every week. All of them play their own role in helping students to make progress in mathematics. The lecture is the place to see new material and to learn about examples, connections and motivations. In this course there are lecture notes which cover most topics of the lecture (and on top of that there are a lot of books out there!). So the lecture is the place where students follow the main ideas and take these ideas to work with the written notes of the lecture later on. The theory taught in the lecture becomes more alive in the problem classes and tutorials. In the problem classes students see how the theory is applied to solve problems and exercises. But most importantly, students must solve problems on their own, with the help of the material from the lecture. Only in this way they learn how to use the theory. Very often the problems seem quite hard in the sense that it is not clear how to start or proceed. This is due to the fact that students are still learning to translate the information from the lecture to a net of knowledge they build for themselves. In the tutorial the tutor and the fellow students work together to find first steps onto a ladder to solving problems on the homework. Gudrun and Jonathan love mathematics. But from their own experience they can understand why some of the students fear mathematics and expect it to be too difficult to master. They have the following tips: just take one step after the other, and do not give up too early discuss problems, questions and topics of the lecture with fellow students - talking about mathematics helps to understand it teach fellow students about things you understand - you will be more confident with your arguments, or find some gaps to fix take time to think about mathematics and the homework problems sit down after the lecture, and repeat the arguments and ideas in your own words in order to make them your own use the problem classes and tutorials to ask questions In the lecture course, students see the basic concepts of different mathematical fields. Namely, it covers calculus, linear algebra, numerics and stochastics. Results from all these fields will help them as engineers to calculate as well as to invent. There is no standard or best way to organize the topics since there is a network of connections inbetween results and a lot of different ways to end up with models and calculation procedures. In the course in Karlsruhe in the first semester we mainly focus on calculus and touch the following subjects: Numbers Methods of proof Complex numbers Sequences and convergence Functions and continuity Series Differential calculus of one real variable Integral calculus Numerical integration Elementary differential equations All of these topics have applications and typical problems which will be trained in the problem class. But moreover they are stepping stones in order to master more and more complex problems. This already becomes clear during the first semester but will become more clear at the end of the course. Literature and related information K. F. Riley, M. P. Hobson, S. J. Bence: Mathematical Methods for Physics and Engineering. Cambridge University Press. K. F. Riley, M. P. Hobson: Foundation Mathematics for the Physical Sciences. Cambridge University Press. T. Arens, F. Hettlich, Ch. Karpfinger, U. Kockelkorn, K. Lichtenegger, H. Stachel: Mathematik.Spektrum Akademischer Verlag, Heidelberg (in German). J. Stewart: Calculus, Early Transcendentals. Brooks/Cole Publishing Company. K. Burg, H. Haf, F. Wille: Höhere Mathematik für Ingenieure. Volumes I-III. Teubner Verlag, Stuttgart (in German). E. Kreyszig: Advanced Engineering Mathematics. John Wiley & Sons. E.W. Swokowski, M. Olinick, D. Pence, J.A. Cole: Calculus. PWS Publishing Company. Boston. Podcasts F. Hettlich: Höhere Mathematik, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 34, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
10/12/2017 • 1 hour, 6 minutes
Lilium
Gudrun traf Patrick Nathen im April 2017 neben dem Flugfeld in Oberpfaffenhofen. Vielen ist dieser Ort ein Begriff, weil das Deutsche Zentrum für Luft- und Raumfahrt dort seinen Sitz hat. Auch das von Patrick mitgegründete Startup Lilium Aviation hat dort seine Büros. Die Vision von Lillium ist es ein Anbieter wie Uber zu werden - allerdings für den Luftraum. Dafür wird ein senkrecht startender Jet entwickelt, der mit Elektromotoren relativ leise und mit wenig Platzbedarf beim Starten und Landen Personen in Ballungsgebieten schnell von Punkt zu Punkt transportiert: Mobility on demand. Die Fluggeräte starten senkrecht wie Hubschrauber und auf Reisehöhe werden sie zum Jet. Diesem Traum waren sie zum Zeitpunkt unseres Gespräches schon sehr nahe: Der Prototyp flog und befand sich im Zulassungsverfahren der Europäischen Agentur für Flugsicherheit (EASA). Neben den Fluggeräten muss auch die Infrastruktur entwickelt werden. Einerseits lassen sich die Helipads als Landeplätze in Metropolregionen nutzen, andererseits braucht es auch die Software, die Nutzer, Geräte und Landemöglichkeiten miteinander verbinden wird. In der Zukunft soll es sogar möglich werden, auf Piloten ganz zu verzichten, weil die Geräte vom Boden ferngesteuert werden. Statt - wie Gudrun an dem Morgen - über eine Stunde aus der Innenstadt von München nach Oberpfaffenhofen zu fahren, würde sich die Reisezeit für diese Strecke auf etwa 5 min verkürzen. Das klingt zu schön, um wahr zu werden - diese Idee müssen Menschen erst für möglich halten bevor es Normalität werden kann. Die Geschichte von Lilium begann 2013 in der WG von vier Ingenieurstudenten - Daniel Wiegand, Matthias Meiner, Patrick Nathen and Sebastian Born - mit einer "spinnerten" Idee. Alle haben an der Fakultät für Maschinenwesen der TU München studiert oder promoviert. Sehr schnell hatten sie einen ersten großen Investor gefunden, sind auf ein Team von 40 Leuten gewachsen (Stand April - inzwischen sind es schon 70) und nun wird der Zweisitzer im 1:1 Modell getestet. Das Folgeprodukt soll schließlich auch eine bemannte Zertifizierung bekommen und eine effektive Problemlösung für die Allgemeinheit werden. Das betrifft dicht besiedelte Metropolregionen genauso wie ländliche Regionen mit wenig ÖPNV-Optionen. Dafür haben sie in der zweiten Finanzierungsrunde 90 Millionen Euro Kapital eingeworben. Beim Starten und Landen gibt es auch in der von Lilium entwickelten Technologie Lärm wegen der Propeller, die für den Auftrieb sorgen. Da aber möglichst wenig Lärmentwicklung eine wichtige Voraussetzung dafür ist, dass sich die Technologie möglichst weit durchsetzen wird, wurde nach neuen Ideen zur Lärmvermeidung gesucht. Jetzt hat der Propeller eine Hülle. Dadurch wird weniger Schall abgestrahlt und die Effizienz erhöht. Im Reiseflug trägt sich der Flieger selbst. Um so einfach wie möglich zu bauen, muss man aber mit dem für Starten und Landen nötigen großen Motor irgendwie leben. In der Konstruktion gingen sie approximativ vor. Als ersten Schritt kann man die nötige Spannweite und Flügelfläche zusammen mit der Fluggeschwindigkeit durch vorläufige aerodynamische Faustformeln schätzen. Die zu erreichenden Widerstands- und Auftriebsbeiwerte legen schließlich auch das Profil der Flügel mehr oder weniger fest. Und die statische Stabilität kann mit Hilfe von Vorerfahrungen mit klassischen Flugobjekten gesichert werden. Zum Beispiel durch eine elliptische Auftriebsverteilung, die widerstandsarm ist, weil sie Turbulenzen an den falschen Stellen vermeidet. Für genauere Untersuchungen mussten diese Ideen und die gesamte Geometrie aber zunächst am Computer simuliert werden. Hier gibt es Berührungspunkte zur Arbeit an Gudruns Lehrstuhl, denn die genaue Strömungsrechnung erfordert moderne Softwarepakete auf dem Gebiet. Hinzu kommt, dass Batterien immer kritisch für die Sicherheit der Geräte sind. Sie heizen sich in der Start- und Landephase auf und das Kühlungskonzept muss wirklich clever sein. Die Anforderung ist, dass das Fluggerät im Winter in Schweden und im Sommer in Dubai funktioniert. Außerdem muss sichergestellt werden, dass eine brennende Batterie nicht zur Zerstörung des ganzen Gerätes führt. Schließlich sind auch Ergonomie und Raumluftkomfort keine unwichtigen Themen. Zum Beispiel müssen Böen durch den Flugcomputer abgefangen werden und hierfür ist Redundanz in den Triebwerken nötig. Literatur und weiterführende Informationen K. Weltner: Flugphysik. Physik des Fliegens, Strömungsphysik, Raketen, Satelliten. Books on Demand, Norderstedt, ISBN 978-3-7412-1472-1. W.-H. Hucho: Aerodynamik der stumpfen Körper. Physikalische Grundlagen und Anwendungen in der Praxis. Vieweg + Teubner, Wiesbaden 2011, ISBN 978-3-8348-1462-3. P. Nathen e.a.: An extension of the Lattice-Boltzmann Method for simulating turbulent flows around rotating geometries of arbitrary shape, Conference: 21st AIAA Computational Fluid Dynamics Conference 2013. P. Nathen, D. Gaudlitz, N. Adams:Towards wall-adaption of turbulence models within the Lattice Boltzmann framework Conference: TSFP-9, 2015. Handelsblatt am 5.9.2017 Wired am 20.04.2017 Interview. Investor Frank Thelens Blick auf lilium Mitmachen bei lilium: Offene Stellen Podcasts S. Cannon, M. Voelter: Flying the V-22 Osprey, omega tau Podcast, Episode 219, 2016. R. Rudnik, H. Klein: Auftrieb, Resonator-Podcast der Helmholtz-Gemeinschaft, Episode 71, 2015. W. Rudolf: Ein elektrisch angetriebenes VTOL-Flugzeug, CC2tv Audiocast Folge 568, 2017. (Folge 568 Direktlink zur mp3-Datei) N. Rottger: Die digitale Republik, piqd Podcast Magazin, 2017.
10/5/2017 • 47 minutes, 42 seconds
Lokale Turbulenzen
Nikki Vercauteren erforscht an der Freien Universität Berlin die mehrskalige Analyse von atmosphärischen Prozessen und traf sich mit Sebastian Ritterbusch in der Urania Berlin, um über ihre Forschung und ihre Experimente auf Gletschern zu sprechen. Zum Zeitpunkt der Aufnahme fand in der Urania das Banff Mountain Film Festival, des Banff Centre for Arts and Creativity aus Kanada, statt. Auf dem Campus des Banff Centre befindet sich auch die Banff International Research Station (BIRS), ein Forschungsinstitut und Tagungsort nach Vorbild des Mathematischen Forschungsinstituts Oberwolfach, das sich der mathematischen Forschung und internationalen Zusammenarbeit verschrieben hat, und welches Nikki Vercauteren Anfang des Jahres zu einem Workshop besuchen konnte. Das Forschungsgebiet der Meteorologie umfasst viele Phänomene, von denen einige durch Fluiddynamik beschrieben werden können. Dabei geht es um eine große Menge von Skalen, von der globalen Perspektive, über kontinentale Skalen zur Mesoskala im Wetterbericht und der Mikroskala zu lokalen Phänomenen. Die Skalen bilden sich auch in den Berechnungsmodellen für die Wettervorhersage wieder. Das Europäische Zentrum für mittelfristige Wettervorhersage (EZMW) betrachtet die globale Perspektive mit Hilfe von Ensemblevorhersagen. Von dort verfeinert das aus dem lokalen Modell des Deutschen Wetterdienstes (DWD) entstandene COSMO Modell die Vorhersage auf die europäische und schließlich nationale Ebenen. Hier geht es um die sehr lokale Analyse von Windgeschwindigkeiten, die bis zu 20mal pro Sekunde gemessen werden und damit die Analyse von lokalen Turbulenzen bis zum natürlichem Infraschall ermöglichen. Die Erfassung erfolgt mit Ultraschallanemometer bzw. ultrasonic anemometers, wo bei manchen Typen durch die Erfassung des Doppler-Effekts bewegter Staubteilchen die Bewegungsgeschwindigkeit der Luft durch mehrere Sensoren räumlich bestimmt wird. Teilweise werden auch Laser-Anemometer eingesetzt. Im Rahmen ihrer Promotion in Umweltwissenschaften an der École Polytechnique Fédérale de Lausanne (EPFL) bekam Sie die Gelegenheit selbst vor Ort eine Messanlage auf einem Gletscher mit aufzubauen und in Stand zu halten. Der See- und Landwind sind typische Phänomene in der mikroskaligen Meteorologie, die Nikki Vercauteren zu ihrer Promotion am Genfersee zur Analyse von turbulenten Strömungen von Wasserdampf untersucht hat. Mit mehreren Laser-Doppler-Anemometern in einer Gitter-Aufstellung konnte sie so die Parametrisierung einer Large Eddy Simulation dadurch testen, in dem sie die im Modell angesetzte Energie in den kleinen Skalen mit den tatsächlichen Messungen vergleichen konnte. Kernpunkt der Betrachtung ist dabei das Problem des Turbulenzmodells: Als Verwirbelung in allen Skalen mit teilweise chaotischem Verhalten ist sie nicht vorhersagbar und kaum vollständig mathematisch beschreibbar. Sie spielt aber wegen der wichtigen Eigenschaften der Vermischung und Energietransfers eine elementare Rolle im Gesamtsystem. Glücklicherweise haben Turbulenzen beobachtete statistische und gemittelte Eigenschaften, die modelliert und damit im gewissen Rahmen und diesem Sinne mit Hilfe verschiedener Modelle durch identifizierte Parameter simuliert werden können. Besonderes Augenmerk liegt dabei auf der Betrachtung der Grenzschicht über dem Erdboden, die zum einen durch die Sonneneinstrahlung besonders durch die Aufwärmung und Abkühlung der Erdoberfläche beinflusst wird und gleichzeitig den Bereich beschreibt, wo das bewegte Fluid Luft auf die stehenden Erde reagiert. Eine meteorologische Eigenschaft der unteren Grenzschicht ist das theoretische logarithmische Windprofil, das aber bei Sonneneinstrahlung oder Nachts durch Verformung der Turbulenzen Korrekturterme erforderlich macht. In einer Temperaturinversion wird die Grenzschicht stabiler und es bildet sich weniger Turbulenz aus, wodurch sich Schadstoffe auch weniger verteilen können. In diesen Wetterlagen kann sich durch den fehlenden Luftaustausch im Stadtgebiet leichter Smog bilden. Entgegen der Theorie kann es interessanterweise trotz stabiler Schichtung zu Turbulenzen kommen: Ein Grund dafür sind Erhebungen und Senken des Bodens, die Luftpakete beeinflussen und damit lokale Turbulenzen erzeugen können. Eine besondere Fragestellung ist hier die Frage nach der Intermittenz, wann ein stabiles dynamisches System chaotisch werden kann und umgekehrt. Ein anschauliches Beispiel von Intermittenz ist das Doppelpendel, das von einem sehr stabilen Verhalten plötzlich in chaotisches Verhalten umschwenken kann und umgekehrt: Trajektorie eines DoppelpendelsCC-BY-SA 100 Miezekatzen Leider ist bisher die Intermittenz in der Wettervorhersage nicht alleine aus der Theorie zu berechnen, jedoch kann man die Richardson-Zahl bestimmen, die den Temperaturgradienten in Verhältnis zur Windscherung stellt. Dieses Verhältnis kann man auch als Verhältnis der Energieverteilung zwischen kinetischer Bewegungsenergie und potentieller Wärmeenergie sehen und daraus Schlüsse auf die zu erwartende Turbulenz ziehen. Als ein dynamisches System sollten wir ähnlich wie beim Räuber-Beute Modell eine gegenseitige Beeinflussung der Parameter erkennen. Es sollte hier aus der Theorie auch eine kritische Zahl geben, ab der Intermittenz zu erwarten ist, doch die Messungen zeigen ein anderes Ergebnis: Gerade nachts bei wenig Turbulenz entstehen Zustände, die bisher nicht aus der Theorie zu erwarten sind. Das ist ein Problem für die nächtliche Wettervorhersage. In allgemeinen Strömungssimulationen sind es oft gerade die laminaren Strömungen, die besonders gut simulierbar und vorhersagbar sind. In der Wettervorhersage sind jedoch genau diese Strömungen ein Problem, da die Annahmen von Turbulenzmodellen nicht mehr stimmen, und beispielsweise die Theorie für das logarithmische Windprofil nicht mehr erfüllt ist. Diese Erkenntnisse führen auf einen neuen Ansatz, wie kleinskalige Phänomene in der Wettervorhersage berücksichtigt werden können: Die zentrale Frage, wie die in früheren Modellen fehlende Dissipation hinzugefügt werden kann, wird abhängig von der beobachteten Intermittenz mit einem statistischen Modell als stochastischen Prozess beantwortet. Dieser Ansatz erscheint besonders erfolgsversprechend, wenn man einen (nur) statistischen Zusammenhang zwischen der Intermittenz und der erforderlichen Dissipation aus den Beobachtungen nachweisen kann. Tatsächlich konnte durch statistisches Clustering und Wavelet-Analyse erstmalig nachgewiesen werden, dass im bisher gut verstanden geglaubten so genannten stark stabilen Regime es mehrere Zustände geben kann, die sich unterschiedlich verhalten. Für die Entwicklung der Wavelet-Transformation erhielt Yves Meyer den 2017 den Abelpreis. Im Gegensatz zur Fourier-Transformation berücksichtig die Wavelet-Transformation z.B. mit dem Haar-Wavelet die von der Frequenz abhängige zeitliche Auflösung von Ereignissen. So können Ereignisse mit hohen Frequenzen zeitlich viel genauer aufgelöst werden als Ereignisse mit tiefen Frequenzen. Das von Illia Horenko vorgeschlagene FEM-BV-VARX Verfahren kann nun mit den Erkenntnissen angewendet werden, in dem die verschiedenen Regimes als stochastische Modelle berücksichtigt und durch beobachtete bzw. simulierte externe Einflüsse gesteuert werden können. Darüber hinaus konnten weitere interessante Zusammenhänge durch die Analyse festgestellt werden: So scheinen im stabilen Regime langsame Wellenphänomene über mehrere Skalen hinweg getrennt zeitliche schnelle und lokale Turbulenzen auszulösen. Andere Phänomene verlaufen mit stärkeren Übergängen zwischen den Skalen. Aus der Mathematik ist Nikki Vercauteren über die Anwendungen in der Physik, Meteorologie und Geographie nun wieder zurück in ein mathematisches Institut zurückgekehrt, um die mathematischen Verfahren weiter zu entwickeln. Literatur und weiterführende Informationen N. Vercauteren, L. Mahrt, R. Klein: Investigation of interactions between scales of motion in the stable boundary layer, Quarterly Journal of the Royal Meteorological Society 142.699: 2424-2433, 2016. I. Horenko: On the identification of nonstationary factor models and their application to atmospheric data analysis, Journal of the Atmospheric Sciences 67.5: 1559-1574, 2010. L. Mahrt: Turbulence and Local Circulations Cesar Observatory, Cabauw site for meteorological research. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. I. Waltschläger: Windsimulationen im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruhe Institut für Technologie (KIT), 2014. L. Wege: Schwebestaub und Wassertröpfchen. Wie Wolken Wetter machen. Folge 5 im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, 2017. M. Wendisch: Meteorologie, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 037, 2010. R. Heise, K. Ohlmann, J. Hacker: Das Mountain Wave Project, omegatau Podcast von Markus Voelter, Nora Ludewig, Episode 042, 2010. B. Marzeion: Gletscher, Podcast Zeit für Wissenschaft von Melanie Bartos, Universität Innsbruck, 2015. B. Weinzierl: Die Atmosphäre, Raumzeit Podcast von Tim Pritlove, Metaebene Personal Media, 2011.
9/27/2017 • 1 hour, 24 minutes, 56 seconds
Raumklima
Gudrun hat sich auf den Weg an ihre Alma Mater nach Dresden gemacht, um mit einem ehemaligen Kommilitonen zu sprechen, der dort als Diplom-Mathematiker schon seit 30 Jahren unter Ingenieuren Strömungssimulation betreibt. Markus Rösler hat von 1982-87 an der TU Dresden Mathematik studiert. Im Industriepraktikum im Rahmen des Studiums kam er in Berührung mit der damaligen Sektion Energieumwandlung und stieg dort für drei Monate in die Strömungssimulation ein. Nach dem Studium wechselte er dauerhaft auf eine Stelle im Institut für Srömungsmechanik in der damaligen Sektion Energieumwandlung, promovierte zum Dr.-Ing. und arbeitet seitdem neben der Lehre für Maschinenbauer an Projekten mit, die Strömungen in Gebäuden und in Räumen besser vorhersagen und analysieren zu können. Inzwischen an der Fakultät Maschinenwesen, Professur für Gebäudeenergietechnik und Wärmeversorgung. Gudrun und Markus teilen die Faszination für Strömungen, die fast schon philosophisch tief greift sowohl in der Beschreibung der Beobachtungen als auch im Verständnis der Phänomenologie. Das Tagesgeschäft in Markus' Alltag an der TU Dresden sind die Erforschung der Wirkung von Strömung im Raum auf Energiebedarf und thermische Behaglichkeit. Das erfolgt einerseits in konkreten Projekten - andererseits aber auch in grundlegenden Überlegungen für Situationen in Typenräumen in typischen Situationen. So entstand bereits ein Katalog, in dem sich Aussagen finden lassen, wie gebaut oder umgebaut werden kann, um die Energie effektiver zu nutzen. Ein Problem in der numerischen Simulation ist, dass die Strömung in Innenräumen in der Regel eine nicht vollständig ausgebildete turbulente Strömung ist. D.h. die Modellgleichungen sind jeweils - optimistisch ausgedrückt - im Grenzfall der Gültigkeit, da es weder laminar noch wirklich voll turbulent strömt. Die geometrische Auflösung ist dabei auch ganz kritisch. In einem Plattenheizkörper muss beispielsweise die genaue Luftströmung um den Heizkörper mit all seinen Lamellen berücksichtigt werden. Außerdem die Wasserströmung im Heizkörper. Die Strömungen werden in der Arbeitsgruppe in der Regel mit einer Reynolds-Mittelung der Navier-Stokes Gleichungen gerechnet, die mit geeigneten Turbulenzmodellen gekoppelt wird. Hier ergibt sich jedoch in der Regel ein Schließungsproblem, d.h. es gibt zu wenige Gleichungen für die Zahl der Variablen. Diese Lücke wird mit gewählten Parametern, die auf Messungen beruhen, geschlossen. Alle Rechnungen sollten etwa in Echtzeit erfolgen. Dafür sind die eben genannten Methoden gut geeignet. Andererseits werden immer genauere Rechnungen nötig, die mit den bisher genutzten Mittelungen nicht möglich sind. Dafür arbeiten sich Markus und seine Kollegen in neue Methoden ein - wie z.B. Lattice Boltzmann Modelle. Aber es ist noch sehr schwierig, mit diesen neuen und genaueren Methoden die geforderten Rechengeschwindigkeiten zu erreichen. Ein konkretes Beispiel aus der aktuellen Arbeit sind Simulationen für Dialyseräume. Es geht darum, Heizung, Lüftung und Kühlung für maximale thermische Behaglichkeit auszulegen. Dafür wird die Geometrie das Raumes, der Geräte und der Personen im Computer genau nachgebildet. Die Energiewende fordert von der Forschung nachhaltige Lösungen für die Wärmeversorgung und die Elektroenergietechnik. Im Lehrstuhl werden hierfür z.B. regionale virtuelle Kraftwerke untersucht. Für Markus geht es jedoch im engeren Sinne eher um die effektive Nutzung der Energie. Konkret werden in der nächsten Zeit instationäre Szenarien für thermische Behaglichkeit untersucht. Probanden können in einem Versuchsraum dem Anheben und Absenken von Temperaturen ausgesetzt werden und die Frage beantworten: Wann wird es unbehaglich? Es ist möglich Puffer für Wärme/Kälte mit Hilfe von Technik oder dem Gebäude selbst zu füllen und so zu nutzen, wie die Erkenntnisse aus der Probandenforschung es sinnvoll erscheinen lassen. An diesen Fragestellungen ist natürlich besonders interessant, dass eine Brücke zu Gesundheit und (Arbeits-)Medizin geschlagen wird. Als Mathematiker hat Markus unter den Energietechnikern zunächst eine steile Lernkurve absolviert, aber er findet nach wie vor die Ansicht auf Probleme von zwei Seiten - mathematisch und ingenieurtechnisch - besonders hilfreich. Die von den Ingenieuren benutzen numerischen Modelle sind zwar vereinfacht - mitunter sogar stark vereinfacht - aber doch erstaunlich zutreffend und lösen tatsächlich die Probleme sehr gut. Literatur und weiterführende Informationen Video zum Klimaraum am Institut X. Yuan, M. Rösler, R. Gritzki, C. Felsmann: Lattice-Boltzmann-Methoden zur Berechnung von Raumluftströmungen, GI Gesundheitsingenieure 2017. J. Seifert, R. Gritzki, A. Perschk, M. Rösler, M. Knorr, M. Wild, C. Russ: Co-Simulation am Beispiel eines Dialyseraums, GI Gesundheitsingenieur 2017. R. Gritzki, C. Kandzia, M. Rösler, C. Felsmann: Frische Luft direkt am Arbeitsplatz – Vergleich von konventioneller und persönlicher Lüftung in Büroräumen, Bauen im Bestand, März 2017. R. Gritzki, C. Kandzia, M. Rösler,C. Scheer, C. Felsmann: Simulation und experimentelle Evaluierung thermoaktiver Textilien für die energieeffiziente Heizung und Kühlung von Räumen, Tagungsbeitrag BauSIM 2016, September 2016. W. Kozak, D. Stein, C. Felsmann, B. Hensel, K. Kabitzsch, M. Rösler: AmI-basierte Regelung von Klimaanlagen und Anwendung auf das Phänomen der \"Trockenen Luft\" Bundesanstalt für Arbeitsschutz und Arbeitsmedizin, Dortmund, 2014 (ISBN: 978-3-88261-033-8) G. Lube, T. Knopp, R. Gritzki, M. Rösler, J. Seifert: Application of domain decomposition methods to indoor air flow simulation, International Journal of Computer Mathematics, Volume 85, Issue 10 (October 2008). T. Knopp, G. Lube, R. Gritzki, M. Rösler: A near-wall strategy for buoyancy-affected turbulent flows using stabilized FEM with applications to indoor air flow simulation, Computer Meths. Applied Mechan. Engrg. 194 (2005) 3797-3816. Podcasts B. Hagemann, A. M. Falah: Cooles Büro - Labor fürs Raumklima, KIT Wissen, 2014.
9/14/2017 • 16 minutes, 44 seconds
Gender und Mathematik
Gudrun Thäter hat sich an der FU Berlin zu einem Gespräch über Geschlecht und Mathematik mit Anina Mischau & Mechthild Koreuber verabredet. Anina Mischau leitet dort im Fachbereich Mathematik und Informatik die Arbeitsgruppe Gender Studies in der Mathematik. Dies ist in Deutschland die einzige derartige Stelle, die innerhalb der Mathematik angesiedelt ist. Sie hat dort vielfältige Aufgaben in Forschung und Lehre mit einem gewissen Schwerpunkt in der Ausbildung für das Lehramt. Dort hilft sie, einen Grundstein dafür zu legen, dass zukünftige Mathelehrkräfte für die Bedeutung der sozialen Kategorie Geschlecht bei der Vermittlung und beim Lernen von Mathematik sensibilisiert werden und lernen, einen gendersensiblen Mathematikunterricht zu gestalten. Auf Vorschlag von Anina Mischau hatten wir auch die zentrale Frauenbeauftragte der FU - Mechthild Koreuber - herzlich zu unserem Gespräch eingeladen. Auch sie ist studierte Mathematikerin und hat über Mathematikgeschichte promoviert. Uns alle bewegen solche Fragen wie: Warum entsprechen die Anteile von Frauen in höheren Ebenen der Mathematikfachbereiche nicht ihren Anteilen in den Eingangsstadien wie Studium oder Promotion? Liegt es auschließlich an den Eigenheiten der akademischen Laufbahn oder gibt es hierfür zudem spezifisch fachkulturelle Gründe? Was bedeutet es für die Mathematik, wenn sie ausschließlich von Männern entwickelt wird? In der wissenschaftlichen Arbeit hierzu verfolgen die zwei Gesprächspartnerinnen von Gudrun vier unterschiedliche Forschungsrichtungen: Wie stellt sich die Geschichte von Frauen in der Mathematik dar? Welche didaktischen Ansätze sind geeignet, um mehr Menschen zu Mathematik einzuladen? Was sind Exklusionsmechanismen für Frauen (und nicht in die vorherrschende Mathematiker-Norm passende andere Personen) in der Mathematik? Wie könnte eine Mathematik aussehen, die das Potential von unterschiedlicheren Menschen einbezieht? In der Geschichte der Mathematik geht es nicht nur darum, das Vergessen in und die Verdrängung von Frauen aus der eigenen Disziplingeschichte sichtbar zu machen, sondern vor allem auch um das Aufzeigen, wo und wie das Werk und Wirken von Mathematikerinnen mathematische Diskurse und damit innermathematische Entwicklungen der Disziplin beeinflusst haben. Ein Thema, an dem Mechthild Koreuber zum Beispiel intensiv forscht, ist die Schule um Emmy Noether. Wie konnte es einen so großen Kreis von Schülerinnen und Schülern geben, die bei ihr lernen wollten, trotz eigener prekären Stellensituation und damit verbunden auch (formal) wenig Reputationsgewinn für ihre Schüler und Schülerinnen. Es kann eigentlich nur die Faszination der mathematischen Ideen gewesen sein! Das Bild der Mathematik als von Männern entwickelte und betriebene - also männliche - Disziplin ist verquickt mit der Vorstellung, was von uns als Mathematik eingeordnet wird, aber auch wem wir mathematische Fähigkeiten zuschreiben. Automatisch werden innerhalb dieses Ideen- und Personennetzes Frauen bei gleichem Potential gegenüber ins Bild passenden Männern benachteiligt und ihr Potential kommt nicht so gut zur Entfaltung. Daneben feiern längst überwunden geglaubten Stereotype fröhliche Urständ, wie am 1.2. 2017 im ZEIT-Artikel Lasst Mädchen doch mit Mathe in Ruhe. Nicht ganz unschuldig am Abschied der Frauen von der Mathematik sind sicher auch unsere häufig steinzeitlichen Unterrichts-Konzepte auf der Hochschulebene, denn Mathematik ist nicht - wie angenommen - überkulturell. Wenn wir Mathematik betreiben, neue Ergebnisse gewinnen oder Mathematik vermitteln sind wir eingebunden in soziale und kulturelle Produktionszusammenhänge wie Kommunikationsprozesse, die u.a. auch durch die soziale Kategorie Geschlecht mit geprägt werden. Außerdem ist wie Mathematik publiziert und unterrichtet wird nicht wie Mathematik entsteht. Die Freude und Neugier an Mathematik wird in der Ausbildung nicht in den Vordergrund gestellt. Statt dessen ist Mathematik gerade für zukünftige Lehrkräfte oft mit negativen Gefühlen und einem eher eindimensionalen (und vielleicht auch stereotypen) Verständnis von Mathematik besetzt, was später in der eigenen schulischen Praxis unbeabsichtigt an Kindern und Jugendliche als Bild von Mathematik weitergegeben wird. Um diesen Teufelskreis aufzubrechen braucht es mehr Freiräume und auch neue Konzepte und Ansätze in der Hochschullehre. Wir Mathematiker und Mathematikerinnen sind für das Bild der Mathematik in der Gesellschaft verantwortlich. Ganz besonders in der Ausbildung für das Lehramt können wir hier starken Einfluss nehmen. Dafür müssen wir besser verstehen: Wo und wie werden Ideen ausgeschlossen, die dem engen vorherrschenden Bild von Mathematik nicht entsprechen? Wieso ist es ok, öffentlich auf Distanz zu Mathematik zu gehen (und damit zu kokettieren: In Mathe war ich immer schlecht) oder "Mathematiker als Nerd" oder halb verrückte Menschen darzustellen? Dieses Bild gehört neu gezeichnet durch allgemeinverständliches Reden über Mathematik und ihre Rolle für uns alle. Darüber hinaus ist und bleibt Mathematik eine soziale Konstruktion - das ist nicht immer leicht zu akzeptieren. Im Kontext der Geschlechterforschung werden Geschlechterasymmetrien und Geschlechterunterschiede im Fach Mathematik als Produkt einer Wechselwirkung zwischen der sozialen Konstruktion von Geschlecht und der sozialen Konstruktion von Mathematik gesehen werden, die in der Vermittlung der Mathematik (im schulischen Unterricht wie in der Hochschullehre) reproduziert wird. Die soziale Konstruktion von Mathematik und ihre Wechselwirkung mt anderen sozokulturellen Konstruktionen kann aber auch jenseits der Diskurse in der Geschlechterforschung verdeutlicht werden - z.B. an der Zeit des Nationalsozialismus. Offensichtlich entschieden damals äußere Faktoren darüber, wer Mathematik machen und vermitteln darf und es wird der oft verdeckte (oder verleugnete) kulturelle und gesellschaftliche Einfluss auf die Disziplin sichtbar. Es wäre wünschenswert, wenn man auch für solche Themen Qualifikationsarbeiten in der Mathematik als fachintern ansehen lernen würde. Gemeinsam beschreitet man an der FU neue Wege: In Anträgen für Forschungsmitteln werden auch Projekte für wissenschaftliche Untersuchungen in den Forschungsclustern mitgeplant, die verstehen wollen wie und warum Frauen in der Disziplin bleiben oder gehen, was die Wissenschaftler (und Wissenschaftlerinnen) für ihren Nachwuchs tun und wie sich das auf Diversität auswirkt. Leider wird Mathematikphilosophie und - geschichte derzeit nicht als Teil der Disziplin Mathematik wahrgenommen. Es fehlt der Respekt - das Gefühl des Sprechens auf gleicher Augenhöhe. Ein Wunsch wäre: In naher Zukunft einen Workshop im Mathematischen Forschungsinstitut Oberwolfach zum Thema Mathematik neu Denken zu organisieren. Das wäre eine Art Lackmustest, ob Bereitschaft zum Wandel in der Mathematik besteht. Im Januar gab es immerhin schon einen Mini-Workshop zum Thema Frauen in der Mathematikgeschichte. Literatur und weiterführende Informationen A. Blunck, A. Mischau, S. Mehlmann: Gender Competence in Mathematics Teacher Education, in Gender in Science and Technology. Interdisciplinary Approaches. Hrsg. Waltraud Ernst, Ilona Horwarth, 235–257 Bielefeld, 2014. L. Burton: Moving Towards a Feminist Epistemology of Mathematics, Educational Studies in Mathematics 28(3): 275–291, 1995. B. Curdes: Genderbewusste Mathematikdidaktik, In Gender lehren – Gender lernen in der Hochschule: Konzepte und Praxisberichte. Hrsg. Curdes, Beate, Sabine Marx, Ulrike Schleier, Heike Wiesner, S. 99-125. Oldenburg: BIS-Verlag, 2007. M. Koreuber, Hrsg: Geschlechterforschung in Mathematik und Informatik, Eine (inter)disziplinäre Herausforderung. Baden-Baden: Nomos, 2010. M. Koreuber: Emmy Noether, die Noether-Schule und die moderne Algebra. Zur Geschichte einer kulturellen Bewegung, Heidelberg: Springer, 2015. B. Langfeldt, A. Mischau, F. Reith, K. Griffiths: Leistung ist Silber, Anerkennung ist Gold. Geschlechterunterschiede im beruflichen Erfolg von MathematikerInnen und PhysikerInnen. In Bettina Langfeldt, Anina Mischau, 76–111. Strukturen, Kulturen und Spielregeln. Faktoren erfolgreicher Berufsverläufe von Frauen und Männern in MINT. Baden-Baden: Nomos, 2014. B. Langfeldt, A. Mischau: Die akademische Laufbahn in der Mathematik und Physik. Eine Analyse fach- und geschlechterbezogener Unterschiede bei der Umsetzung von Karrierewissen. Beiträge zur Hochschulforschung 37(3): 80–99, 2015. M. McCormack: Mathematics and Gender. Debates in Mathematics Education. Hrsg. Dawn Leslie, Heather Mendick, 49–57. London: Routledge, 2013. H. Mendick: Masculinities in Mathematics. Open University Press. McGraw-Hill Education (UK), 2006. H. Mihaljević-Brandt, L. Santamaria, M. Tullney: The Effect of Gender in the Publication Patterns in Mathematics, PloS one 11.10: e0165367, 2016. A. Mischau, K. Bohnet: Mathematik „anders“ lehren und lernen. In Gender – Schule – Diversität. Genderkompetenz in der Lehre in Schule und Hochschule. Hrsg. Ingrid Rieken, Lothar Beck, 99–125. Marburg: Tectum, 2014. A. Mischau, S. Martinović: Mathematics Deconstructed?! Möglichkeiten und Grenzen einer dekonstruktivistischen Perspektive im Schulfach Mathematik am Beispiel von Schulbüchern. In Queering MINT. Impulse für eine dekonstruktive Lehrer_innenbildung. Hrsg. Nadine Balze, Florian Chistobal Klenk und Olga Zitzelsberger, 85–104. Opladen: Budrich, 2017. C. Morrow, T. Perl: Notable Women in Mathematics: A Biographical Dictionary. Westport, Connecticut: Greenwood Publishing Group, 1998. B. Shulman: What if we change our Axioms? A Feminist Inquiry into the Foundations of Mathematics. Configurations 4(3): 427–451, 1996. R. Tobies, Hrsg: Aller Männerkultur zum Trotz. Frauen in Mathematik, Naturwissenschaften und Technik. Erneuerte und erweiterte Auflage der Erstveröffentlichung 1997. Frankfurt a. M: Campus, 2008. Ethnomathematik A. Radunskaya: President´s report Newsletter of the Association of Women in mathematics, Juli/Aug. 2017. T. Gowers: Blogpost in Gower's Weblog March 10th, 2009. Gendergap in science Bericht des Oberwolfach Mini-Workshops Women in Mathematics: Historical and Modern Perspectives 8.-14.1. 2017. Podcasts C. Rojas-Molian: Rage of the Blackboard, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 121, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. G.M. Ziegler: Was ist Mathematik? Gespräch mit G. Thäter im Modellansatz Podcast, Folge 111, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. N. Dhawan: Postkolonialismus und Geschlechterforschung, Gespräch mit M. Bartos im Zeit für Wissenschaft Podcast, Folge 13, Universität Innsbruck, 2015. M. Jungbauer-Gans: Frauen in der Wissenschaft – Gleiche Chancen, Ungleiche Voraussetzungen? Zentrum für Gender Studies und feministische Zukunftsforschung, Podcast Kombinat, Universität Marburg, 2016. In Memoriam: Maryam Mirzakhani, 1977-2017, Mathematician, Fields Medalist: Scientist, collaborator, colleague, mentee, expert, mentor, teacher, working mom, wife, daughter, friend, professor, immigrant, math doodler, woman in scienceConstanza Rojas-Molinahttps://ragebb.wordpress.com/2017/07/16/506/
8/10/2017 • 57 minutes, 59 seconds
Bézier Stabwerke
Arne Rick (@Couchsofa) war schon ein häufiger, aber ungenannter Gast im Modellansatz Podcast: Als DJ war er auf den Aufnahmen von der aktuellen und früheren Gulasch-Programmiernächten im Hintergrund zu hören. Außer für Musik hat Arne auch ein großes Faible für Mathematik und Informatik und befasst sich im Zuge seiner von Prof. Marcus Aberle betreuten Bachelorarbeit zum Bauingenieurwesen an der Hochschule Karlsruhe mit Bezierkurven für Stabwerke. Stabwerke sind Modelle für Strukturen in Bauwerken und eine Lösung für ein System von Stabwerken hilft im konstruktiven Bauingenieurwesen, die Aufbauten in ihren Bemessungen und Anforderungen auszulegen und erforderliche Eigenschaften festzulegen. Die Darstellung als Stabwerke ist im Sinne eines Fachwerks eng verknüpft mit dem Prinzip von Finite Elementen, da diese in gewissen Anwendungen als Stabwerke und umgekehrt interpretiert werden können. Weiterhin können Stabwerke mit Hilfe von finite Elementen innerhalb der Stäbe genauer bestimmt bzw. verfeinert werden. Die Betrachtung des Stabwerks beginnt mit der Struktur und den Einwirkungen: Hier ist spielt das Semiprobabilistische Teilsicherheitsbeiwerte-System eine besondere Rolle, da es die möglichen Einwirkungen auf die Bauteile und damit die Gesamtanalyse probabilistisch erfassbar macht. Man unterscheidet hier nicht mehr so stark zwischen dem Bauen im Bestand, wo viele Nebenbedingungen zwar bekannt, aber die Eigenschaften der verbleibenden Bestandteile unsicher sind, und dem Aufbau eines Neubaus, wo es jeweils für die Bauingenieure gilt, die Vorgaben aus der Architektur konstruktiv, berechnend, planend und organisatorisch unter Berücksichtigung des möglichen Zeit- und finanziellen Rahmens, verfügbarer Materialien, Technik, Mitarbeiter und Bauverfahren sicher umzusetzen. Speziell in der Betrachtung der Stabwerke können die Fälle der statistischen Über- und Unterbestimmung des Bauwerks auftreten, wo Überbestimmung grundsätzlich zu Verformungen führt, eine Unterbestimmung andererseits kein funktionsfähiges Bauwerk darstellt. Weiterhin ändert jede Anpassung von beispielsweise der Tragfähigkeit eines Bauteils auch gleich zur Änderung des gesamten Stabwerks, da ein stärkerer Stab oft auch mehr wiegt und sich eventuell auch weniger verformt. Außerdem ziehen in einem statisch überbestimmten System die steiferen Elemente die Lasten an. So ist es häufig, eher unintuitiv, von Vorteil Bauteile zu schwächen um eine Lastumlagerung zu erzwingen. Dies führt in der Auslegung oft zu einem iterativen Prozess. Die Darstellung eines Stabes oder Balkens ist dabei eine Reduzierung der Wirklichkeit auf ein lokal ein-dimensionales Problem, wobei die weiteren Einwirkungen aus der Umgebung durch Querschnittswerte abgebildet werden. Die Voute ist ein dabei oft auftretendes konstruktives Element in der baulichen Umsetzung eines Tragwerks, die in der Verbindung von Stäben eine biegesteife Ecke bewirkt und in vielen Gebäuden wie beispielsweise dem ZKM oder der Hochschule für Gestaltung in Karlsruhe zu sehen sind. In der Modellierung der einzelnen Stäbe können verschiedene Ansätze zum Tragen kommen. Ein Standardmodell ist der prismatische Bernoulli Biegestab, das mit Differentialgleichungen beschrieben und allgemein gelöst werden kann. Daraus entstehen Tabellenwerke, die eine Auslegung mit Hilfe dieses Modell ermöglichen, ohne weitere Differentialgleichungen lösen zu müssen. Eine häufige Vereinfachung ist die Reduzierung des Problems auf zwei-dimensionale planare Stabwerke, die in den meissten Anwendungsfällen die relevanten Anforderungen darstellen können. Die Stäbe in einem Stabwerk können nun unterschiedlich miteinander verbunden werden: Eine Möglichkeit ist hier ein Gelenk, oder in verschiedene Richtungen und Dimension festlegte oder freie Lager, also Festlager oder Loslager zwischen Stäben oder einem Stab und dem Boden. Je nach Wahl der Verbindung entstehen in diesem Punkt eine unterschiedliche Anzahl von Freiheitsgraden. Für die praktische Berechnung werden Lager oft auch verallgemeinert, in dem die Verbindung über eine Feder modelliert wird: Hier haben ideale Loslager eine Federkonstante von 0, während die Federkonstante von idealen Festlagern gegen unendlich geht. Mit allen Werten dazwischen können dann reelle Lager besser beschrieben werden. In vereinfachter Form führt die Berechnung eines Stabwerks mit idealisierten unbiegbaren Balken mit den Endpunkten der Balken als Variablen und den Verknüpfung der Balken als Gleichungen direkt auf ein relativ einfaches lineares Gleichungssystem. Da sich in Realität alle Balken unter Last merklich verbiegen (es sei denn, sie sind vollkommen überdimensioniert), müssen sie grundsätzlich mit Steifigkeit modelliert werden, um belastbare Ergebnisse zu erhalten. Aber auch im erweiterten Modell wird der Stab durch eine Matrix linear beschrieben, nur dass hier auch die Last eine Rolle spielt und über das Elastizitätsmodul, Fläche und Trägheitsmoment die Verbiegungen abbilden kann. So ergibt das erweiterte Modell ebenfalls ein lineares Gleichungssystem, nur mit mehr Variablen und Parametern, die das System beschreiben und Angaben zur Verbiegung und Lastverteilung machen. Nach der gewöhnlichen Berechnung des Stabwerks hat sich Arne nun mit der Frage beschäftigt, ob die Stäbe mit Biegezuständen mit Bezierkurven besonders sinnvoll dargestellt werden können. In der Konstruktion erfahren Bézierkurven eine große Beliebtheit, da sie über Start- und Endpunkt mit zwei Kontrollpunkten sehr intiutiv zu steuern sind. Oft kommen oft Non-Uniform Rational B-Splines (NURBS) zum Einsatz, die als verallgemeinerte Bézier-Splines aufgefasst werden können. Das Grundproblem besteht darin, dass die Stäbe im erweiterten Modell durch Einführung der Biegezustände und Elastizität weder ihre Länge behalten, noch eine eindeutige Ausrichtung durch unterschiedliche Winkel an den Enden erhalten. Einen solchen Widerspruch versucht man bei Finiten Elementen entweder durch eine feinere Diskretisierung und damit durch eine Abbildung durch Geradenstücke oder durch eine Abbildung mit Polynomen höherer Ordnung zu ermöglichen und das Problem auf dem verfeinerten Modell zu lösen. Der dritte Ansatz ist hier, die Ergebnisse durch die in der Konstruktion bewährte Darstellung über Bezier-Kurven qualitativ anzunähern, um die Modellerfahrung aus der Konstruktion in der Darstellung der Lösung zu nutzen. Die Umsetzung erfolgt in Python, das mit den Bibliotheken NumPy und SciPy eine Vielzahl hilfreicher und effizienter Funktionen besitzt. Literatur und weiterführende Informationen A. Rick: Structurana, Python, 2017. Friedrich U. Mathiak: Die Methode der finiten Elemente (FEM), Einführung und Grundlagen, Skript, Hochschule Neubrandenburg, 2010. Ch. Zhang, E. Perras: Geometrische Nichtlinearität, Steifigkeitsmatrix und Lastvektor, Vorlesung Baustatik (Master), Lehrstuhl Baustatik, Universität Siegen, 2015. Podcasts M. Bischoff: Baustatik und -dynamik, Gespräche mit Markus Völter & Nora Ludewig im omega tau Podcast, Episode 029, 2010. M. An: Topologieoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 125, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick: A Hackers Approach To Building Electric Guitars, Vortrag auf der GPN15, Karlsruhe, 2015. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. A. Rick: Bézier Stabwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 141, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
7/27/2017 • 53 minutes
Mikroökonomik
Ein Gespräch mit Oliver Beige über dynamische Prozesse in der Mikroökonomik: Über Einfluss, Ideenpropagation und Nachbarschaftseffekte. Oliver Beige und Gudrun Thäter haben sich online über die große gemeinsame Schnittmenge im Musikgeschmack gefunden. Obwohl Oliver in Berlin lebt und Gudrun in Karlsruhe ist es schon vorgekommen, dass sie im gleichen Konzert waren ohne das rechtzeitig zu bemerken, weil sie sich persönlich noch nicht kannten. Im vergangenen Jahr fand Gudrun dann interessante Überlegungen zur aktuellen Anwendbarkeit der Ideen und Modelle von Malthus, die Oliver veröffentlicht hatte. Diese erwiesen sich als spannende Lektüre für die Studierenden der Modellbildungsvorlesung, die Gudrun gerade hielt. Damit war der Plan geboren, dass man sich nicht nur unbedingt einmal persönlich kennenlernen müsste, sondern bei nächster Gelegenheit auch für den Podcast einmal unterhalten sollte. Diese Gelegenheit bot sich im Juli 2017 nach einem Freiluftkonzert in der Kulturbrauerei in Berlin. Oliver ist Ökonom. Er hat 1993 in Karlsruhe sein Diplom in Wirtschaftsingenieurwesen erworben und sich anschließend in den Staaten umgesehen. Dort hat er 1997 einen Master of Business Administration (University of Illinois) abgeschlossen und sich schließlich im Rahmen seiner Promotion an der UC Berkeley mit der mathematischen Modellierung von Ideenpropagation und Entscheidungsprozessen in Netzwerken beschäftigt. Er hat dabei auch zwei Wellen von Innovation im Silicon Valley hautnah miterlebt. Was so einfach und grundlegend klingt ist tatsächlich eine sehr schwierig zu beantwortende Frage: Wie beeinflussen sich Mitglieder in einer Gruppe gegenseitig beim Finden von Entscheidungen? Während Soziologen gerne über gruppendynmische Prozesse diskutieren, arbeiten Ökonomen traditionell unter der vereinfachten Annahme, dass Entscheidungen als unabhängig voneinander getroffen werden - gestützt auf einer rein rationalen, isolierten Nutzenkalkulation. Erst seit Kurzem wird diese Annahme in der Ökonmie durch neue Modelle in Frage gestellt. Was jedoch modellhaft einen Zugang zum dynamischen Entscheidungsprozess in einer Gruppe verschaffen kann - in dem natürlich ganz viel Rückkopplung eingebaut werden muss - sind neuronale Netze - z.B. die Boltzmann-Maschine. Diese hatte Oliver in Karlsruhe kennen- und schätzen gelernt. Sie bilden ein stochastisches Feedback-Netzwerk, in dem man auch untersuchen kann, wie man zu einem Equilibrium kommen kann. Wie läuft denn so eine kollektive Entscheidung ab? Vorab hat jede/r in der Gruppe Präferenz - z.B. für einen bestimmten Film, den er oder sie gern in Begleitung anderer in der Gruppe sehen würde. Darüber wird gesprochen und schließlich teilt sich die Gruppe auf in Untergruppen, die im Kino den gleichen Film sehen. Im Gespräch werden die Präferenzen der anderen jeweils gewichtet in die eigene Entscheidung einfließen. Mathematisch wird das ausgedrückt in einer Nutzenfunktion, deren Wert maximiert wird. In der evolutionären Spieltheorie kann dieses dann als ein stochastischer Prozess modelliert werden, der mittels einer Potentialfunktion die Meinungsbildung der Gruppe als Equilibriumspfad darstellt. Von einem mehr abstrakten Level stellen sich auch die Fragen an ein so gewonnenes Equilibrium: a) Sind die Entscheidungen für die Gruppe die besten? b) Inwieweit beeinflusst die Struktur des sozialen Netzwerkes die Gruppenentscheidung? c) Kann die Gruppendynamik dazu führen, dass einzelne Mitglieder entgegen ihrer Präferenzen entscheiden (und damit das Axiom der offenbarten Präferenzen verletzen)? Zur Darstellung dieser Prozesse wandelte Oliver den traditionellen Entscheidungsbaum unter Ausnutzung der Markow-Eigenschaft in einen Entschediungsgraphen um. Dies war damals ein komplett neuer Ansatz und hat sich auch im großen Maßstab bis heute nicht durchgesetzt. Neu an der Arbeit war auch, dass zum ersten Mal im Zusammenhang der Netzwerkeffekte die Struktur des Netzwerkes betrachtet wurde. In der ursprünglichen Konzeption in der Arbeit von Michael Katz und Carl Shapiro wurde die Heterogenität des Netzwerkes noch explizit ausgeschlossen. Wie wichtig Nachbarschaftseffekte sind, weiß man in der Innovationsökonomik aber schon seit Zvi Griliches die schrittweise Verbreitung des ertragreicheren Hybridmaises in den USA über Mundpropaganda erforscht hatte. Diese Form der Ideenpropagation ist auch ein wichtiger Baustein in Jared Diamonds "Guns, Germs, & Steel" (das den Pulitzerpreis gewann). Großen Einfluss auf Olivers Arbeit haben die Arbeiten des Pioniers der Spieltheorie Thomas Schelling (Nobelpreisträger 2005), der so wichtige Begriffe wie Nachbarschaftseffekte, kritische Masse und das Konzept des Tipping points einführte. Heute setzt Oliver seine Kenntnisse über dynamische Prozesse bei Entscheidungen über Investitionen in Startups, insbesondere im Bereich der verknüpften Mobilität und der Verbreitung neuer Technologien wie z.B. Blockchain, ein. Literatur und weitere Informationen J. Diamond: Guns, Germs, and Steel. W.W. Norton, 1997. Thomas Schelling, Nobelist and game theory pioneer, 95 . Nachruf, Harvard Gazette 14.12.2016. O. Beige: Resurrecting Malthus and Ricardo Medium, 2016. O. Beige: Essays on Preference and Influence Dissertation an der University of California, Berkeley, 2006. J. H. Conway: Game of life Podcasts P. Stursberg: Social Choice, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 129, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. V. Caspari: Perfekte Gleichgewichte, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 61, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. K. Cindric: Kaufverhalten, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 45, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. S. Ritterbusch: Digitale Währungssysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
7/13/2017 • 38 minutes, 17 seconds
Shannon Information
Paul Darscheid gehört der KIT-Hochschulgruppe Engineers without borders an und arbeitet dort konkret in einer Projektgruppe mit, die im ländlichen Raum von Äthopien einen Brunnen bohrt. Um dafür die Nachhaltigkeit des Grundwasserzuflusses zu klären, suchte er den Kontakt zu Uwe Ehret vom Institut für Wasser und Gewässerentwicklung, Bereich Hydrologie. Die spannenden Themen dort fesselten ihn so sehr, dass schließlich auch seine Masterarbeit in Zusammenarbeit mit der Hydrologie entstand. Zum Spektrum der Fragen der Hydrologen gehören sehr viele unterschiedliche Themen. Man kann summarisch sagen: alles zum Thema Wasserkreislauf, was nicht die Meteorologen beantworten. Konkret geht es z.B. um Niederschlagsabfluss oder Hochwasservorhersage. Eine Frage, die dabei immer wieder auftaucht ist: Wo steckt die meiste Information in den Datensätzen oder den erstellten Modellen? Ein typischer Anwendungsfall schließt beispielsweise aus den Flußpegelstände von unterschiedlichen Flüssen im gleichen System, den Niederschlagmessungen, der Lufttemperatur, Schneehöhen, Bodenfeuchte und Bodenbeschaffenheit auf die Zielgröße - einen konkreten Flusspegelstand. Ein Zusammenhang aller Daten mit der Zielgröße ist klar, aber wie er konkret aussieht ist schwerer zu fassen. Informationsflüsse quantifizieren in diesem Kontext, welche Messreihen die meisten Informationen über die Zielgröße liefern. Daneben stellt sich auch die Frage: Kann ich einmal gewonnene Konzepte auf andere System übertragen? Kann ich mir dort sparen noch einmal sehr viel zu messen, also mit weniger Daten auskommen? Am Anfang steht dann die Frage: Was ist Information? Das Konzept für das sich Paul Darscheid entschieden hat ist die Shannon Entropie - ein Maß für Unsicherheit aufgrund der vorliegenden Streuung in den Daten. Tatsächlich besteht ein Zusammenhang zum physikalischen Begriff der Entropie. Die unterstellte Verteilung eines Datensatzes wird zur Grundlage auf der Größen wie Informationssicherheit und andere abgeleitet werden. Die Natur als Meßdaten führt auf eine diskrete Verteilung, die evtl. noch vergröbert wird durch Wählen von Stufen (bins) innerhalb derer der Unterschied als nicht relevant angesehen wird. Für eine Beobachtung stellt sich die Frage: Wieviel Information steckt in dieser zusätzlichen Messung? Für sehr wahrscheinliche Ereignisse ist es kaum zusätzliches Wissen, weil es mit vorherigen Vermutungen übereinstimmt. Für ein unwahrscheinliches Ereignis ist die zusätzlich gewonnene Information sehr groß. Ein Problem ist auch, dass die diskrete Verteilung aus beobachteten Daten gewonnen wird - d.h. man muss eine Schätzung der Verteilung vornehmen. Darauf aufbauend ist es wichtig zu wissen, wie mit Teilmengen des Datensatzes die geschätzte Verteilung approximiert werden kann. Die Unsicherheit hierbei kommt durch Streuung der Daten und durch den vorhandenen Ausschnitt der Realität, der in den Daten eingefangen wird. Wie sehr beeinflusst die Größe des Datensatzes die zutreffende Schätzung der Verteilung? Dies lässt sich mir der Kullberg-Leibler-Divergenz beschreiben, die die Unsicherheit durch Unwissen über die Verteilung misst. Die Kreuzenthropie addiert die Unsicherheiten der Shannon Entropie und der Kullberg-Leibler Divergenz und ist damit ein Maß für die Gesamtunsicherheit der Schätzung der Verteilung. Hierbei erleichtern die logarithmischen Maße das Rechnen - Produkte werden zu Summen. Literatur und weiterführende Informationen Brunnenprojekt Jello Adancho: Wir versorgen ein Dorf in Äthiopien mit sauberem Trinkwasser Claude Elwood Shannon: The Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948. Grassberger: Entropy Estimates from Insufficient Samplings, arXiv:physics/0307138, 2003. Thomas M. Cover and Joy A. Thomas. Elements of Information Theory, (Wiley Series in Telecommunications and Signal Processing). Wiley-Interscience, 2006. Vijay P. Singh. Entropy theory and its applications in environmental and water engineering, Wiley-Blackwell, 2013. Janusz Miskiewicz. Improving quality of sample entropy estimation for continuous distribution probability functions, Physica A: Statistical Mechanics and its Applications, 450(C):473–485, 2016. Ilias G. Pechlivanidis, Bethanna Jackson, Hilary Mcmillan, and Hoshin V. Gupta. Robust informational entropy-based descriptors of flow in catchment hydrology, Hydrological Science Journal, 61(1):1–18, 2016. Podcasts S. Hemri: Ensemblevorhersagen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 96, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
7/6/2017 • 35 minutes, 20 seconds
Stokes Operator
Peer Kunstmann hat in Kiel Mathematik studiert und 1995 promoviert. In seiner Zeit an der Fakultät für Mathematik in Karlsruhe hat er sich 2002 habilitiert. Er arbeitet als Akademischer Oberrat dauerhaft in der Arbeitsgruppe Angewandte Analysis an unserer Fakultät. Gudrun hat das Gespräch über ein für beide interessantes Thema - das Stokesproblem - gesucht, weil beide schon über längere Zeit mit unterschiedlichen Methoden zu dieser Gleichung forschen. Das Stokesproblem ist der lineare Anteil der Navier-Stokes Gleichungen, dem klassischen Modell für Strömungen. Sie haben eine gewisse Faszination, da sie einfach genug erscheinen, um sie in ihrer Struktur sehr eingehend verstehen zu können, zeigen aber auch immer wieder, dass man sie nicht unterschätzen darf in ihrer Komplexität. Peers Interesse wurde zu Beginn seiner Zeit in Karlsruhe durch Matthias Hieber geweckt, der inzwischen an der TU Darmstadt tätig ist. Es zeigte sich seit damals als sehr aktives Forschungsgebiet, weshalb er auch immer wieder neu zu diesen Fragestellungen zurückgekehrt ist. Mit den klassischen Randbedingungen (konkret, wenn auf dem Rand vorgeschrieben wird, dass die Lösung dort verschwindet = homogene Dirichletbedingung) ist das Stokesproblem auffassbar als Laplaceoperator, der auf Räumen mit divergenzfreien Vektorfeldern agiert. Der Laplaceoperator ist sehr gut verstanden und die Einschränkung auf den abgeschlossenen Unterraum der Vektorfelder mit der Eigenschaft, dass ihre Divergenz den Wert 0 ergibt, lässt sich mit einer Orthogonalprojektion - der Helmholtzprojektion - beschreiben. Im Hilbertraumfall, d.h. wenn die Räume auf einer L^2-Struktur basieren und der Raum deshalb auch ein Skalarprodukt hat, weiß man, dass diese Projektion immer existiert und gute Eigenschaften hat. Für andere Räume ohne diese Struktur (z.B. -basiert für q nicht 2) hängt die Antwort auf die Frage, für welche q die Projektion existiert, von der Geometrie des Gebietes ab. Für beschränkte Gebiete geht vor allem die Glattheit des Randes ein. Das spiegelt sich auch auf der Seite des Laplaceproblems, wo die Regularität im Innern des Gebietes relativ elementar gezeigt werden kann, aber in der Nähe des Randes und auf dem Rand gehen in die Argumente direkt die Regularität des Randes ein. Mathematisch wird das Gebiet dabei mit Kreisen überdeckt und mit Hilfe einer sogenannten Zerlegung der Eins anschließend die Lösung für das ganze Gebiet zusammengesetzt. Für die Kreise, die ganz im Innern des Gebietes liegen, wird die Lösung auf den ganzen Raum mit dem Wert 0 fortgesetzt, weil die Behandlung des ganzen Raumes sehr einfach ist. Für Kreise am Rand, wird der Rand lokal glatt gebogen zu einer geraden Linie und (ebenfalls nach Fortsetzung mit 0) ein Halbraum-Problem gelöst. Natürlich liegt es in der Glattheit des Randes, ob das "gerade biegen" nur kleine Fehlerterme erzeugt, die sich "verstecken" lassen oder ob das nicht funktioniert. Für einen Rand, der lokal durch zweimal differenzierbare Funktion dargestellt werden kann, funktioniert diese Technik gut. Für Gebiete, die einen Rand haben, der lokal durch Lipschitzstetige Funktionen darstellbar ist, werden z.B. Randintegraldarstellungen direkt untersucht. Dort existiert die Helmholtzzerlegung für alle q im Intervall (wobei vom Gebiet abhängt). Durch die kleinen Fehlerterme, die in der Technik entstehen, wird es auch nötig, die Gleichung für die Divergenz zu untersuchen, wo keine 0 sondern eine beliebige Funktion (natürlich mit den entsprechenden Regularitätseigenschaften) als rechte Seite erlaubt ist. Ein Begriff, der eine wichtige Eigenschaft von partiellen Differentialgleichungen beschreibt, ist der der maximalen Regularität. Einfach ausgedrückt heißt das, wenn ich die rechte Seite in einem Raum vorgebe, ist die Lösung genau so viel regulärer, dass nach Anwendung des Differentialoperators das Ergebnis die Regularität der rechten Seite hat. Für das Laplaceproblem wäre also die Lösung v für jedes vorgegebene f so, dass und f im gleichen Raum sind. Diese Eigenschaft ist z.B. wichtig, wenn man bei nichtlinearen Problemen mit Hilfe von Fixpunktsätzen arbeitet, also z.B. den Operators iterativ anwenden muss. Dann sichert die maximale Regularität, dass man immer im richtigen Raum landet, um den Operator erneut anwenden zu können. Im Zusammenhang mit der Frage der maximalen Regularität hat sich der -Kalkül als sehr nützlich erwiesen. Ein anderer Zugang wählt statt der Operatorformulierung die schwache Formulierung und arbeitet mit Bilinearformen und Ergebnissen der Funktionalanalysis. Hier kann man vergleichsweise wenig abstrakt und in diesem Sinn elementar auch viel für das Stokes- und das Navier-Stokes Problem zeigen. Es gibt ein vorbildliches Buch von Hermann Sohr dazu. Literatur und weiterführende Informationen M. Geißert, P.C. Kunstmann: Weak Neumann implies H^\infty for Stokes, Journal Math. Soc. Japan 67 (no. 1), 183-193, 2015. P.C. Kunstmann: Navier-Stokes equations on unbounded domains with rough initial data, Czechoslovak Math. J. 60(135) no. 2, 297–313, 2010. H. Sohr: The Navier-Stokes Equations. An Elementary Functional Analytic Approach Birkhäuser, 2001. M. Cannone: Ondelettes, Paraproduits et Navier-stokes, Diderot Editeur, 1995. G. Thäter, H. Sohr: Imaginary powers of second order differential operators and $L^q$ -Helmholtz decomposition in the infinite cylinder, Mathematische Annalen 311(3):577-602, 1998. P.C. Kunstmann, L. Weis: Maximal L_p-regularity for parabolic equations, Fourier multiplier theorems and H^\infty-calculus, in Functional Analytic Methods for Evolution Equations (eds. M. Iannelli, R. Nagel and S. Piazzera), Springer Lecture Notes 1855, 65-311, 2004. P.C. Kunstmann, L. Weis: New criteria for the H^\infty-calculus and the Stokes operator on bounded Lipschitz domains, Journal of Evolution Equations, March 2017, Volume 17, Issue 1, pp 387-409, 2017. G.P. Galdi: An introduction to the mathematical theory of the Navier-Stokes equations. Vol. I. Linearized steady problems. Springer Tracts in Natural Philosophy, 38. Springer-Verlag, New York, 1994. Podcasts J. Babutzka: Helmholtzzerlegung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 85, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. M. Steinhauer: Reguläre Strömungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 113, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
6/29/2017 • 1 hour, 14 minutes, 1 second
Automated Binary Analysis
Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Florian Magin (@0x464d) einen Vortrag zu Automated Binary Analysis gehalten und war bereit uns auch im Podcast zu erzählen, wie er mit mathematischen Verfahren Software auf Schwachstellen analysiert. Florian studiert Informatik an der TU Darmstadt und engagiert sich im CTF-Team Wizards of Dos seiner Universität. Sein Interesse an der Computersicherheit hat ihn auch zur Firma ERNW Research geführt, wo er als Werkstudent in der IT-Sicherheitsforschung tätig ist. Wie wichtig die Suche nach Schwachstellen und deren Absicherung ist, wurde kürzlich bei der weltweiten Verbreitung der WannaCry/WannaCrypt-Schadsoftware bewusst, die die Aufmerksamkeit von einer anderen und lukrativeren Schadsoftware Adylkuzz ablenkte. Unter der Binary Analysis versteht man die quellenlose Analyse eines Programms alleine auf den Daten im Maschinencode auf einem Speichermedium. Ein erster Schritt der Analysis ist die Wandlung der Maschinensprache in Mnemonic durch einen Disassembler. Dieser Programmcode kann sich deutlich von einer ursprünglichen Quelltext des Programms unterscheiden, da der Maschinencode erzeugende Compiler eine Vielzahl von Optimierungsmöglichkeiten umsetzt, die den Ablauf und das Abbild des Programms im Maschinencode deutlich verändern können. Eine Herausforderung stellt sich inzwischen in der Größe der Programme: Während es inzwischen zahlreiche Wettbewerbe gibt, Programme unter extremen Platzbeschränkungen umzusetzen, wächst die Größe klassischer Programme stark an. Ein Maschinensprache-Befehl kann in einem Byte kodiert sein, wie früher etwa hexadezimal C9 auf dem Z80 eine Unterroutine beendet, so können in 4 Bytes Operationen wie eine Addition samt Parameter definiert sein. Die automatisierte Binäranalyse hat besonders durch die Darpa Cyber Grand Challenge im Jahr 2016 großes Interesse geweckt, wo die Teams autonome Software entwickeln sollten, die für sich alleine den CTF-Wettbewerb bestreitet. Eine Anwendung solcher automatisierten Programme ist die schnelle Überprüfung von neuer Software auf bekannte oder typische Schwachstellen oder Implementierungsfehler. Eine sehr allgemeine Methode zur Detektion von Sicherheitslücken ist das Fuzzing: Das Open Source Tool AFL modifiziert beispielsweise korrekte Eingabewerte und prüft bei welcher Modifikation das Programm vom zuvor aufgezeichneten Programmablauf abweicht und damit einen Hinweis auf eine mögliche Schwachstelle gibt. Es kann dabei idealerweise auf dem Sourcecode operieren oder auch das Programm in einem Emulator wie QEMU ausführen und analysieren. Wie schwer aber selbst Source Code zu verstehen sein kann, zeigen die Wettbewerbe International Obfuscated C Code Contest (IOCCC), zu möglichst schwer verständlichen sinnvollen Code, und der Underhanded C Contest, wo ein scheinbar sinnvoller Code für Menschen möglichst unvorhersehbare Zusatzfunktionen aufweist. Ebenso können sehr beliebte Programmiersprachen wie Python sehr unvorhersehbar reagieren, wenn man versehentlich Tabulatoren und Space vermischt, oder gleich die Programmiersprache Whitespace benutzt. Ein weiteres Beispiel ist, dass das Breitenlose Leerzeichen in neuen C++-Standards erlaubt ist, und für den Menschen ununterscheidbaren Code ermöglicht, der unterschiedliche Dinge tut. Aber auch Computer können getäuscht werden, wenn zum Vergleich unsichere Hash-Funktionen genutzt werden, wie jüngst die Shattered-Attacke auf die SHA-1 Hash zeigte. Eine automatisierte Analysemöglichkeit ist die Control Flow Graph Recovery, die beispielsweise mit IDA , radare2, binary ninja durchgeführt werden kann, um aus einer eindimensionalen Speicherdarstellung zu einem Programmnetz, wo zusammengehörige Programmblöcke miteinander vernetzt werden. Hier kann auch schon sichtbar werden, ob beschränkte Bereiche ohne Authentifikation erreicht werden können. Ein weiteres automatisierbares Verfahren ist die Datenflussanalyse, wo die Verarbeitung und Auswirkungen von Variablen und Daten im Verlauf des Programms analysiert wird. Hier kann der Verlauf von beispielsweise vertraulichen Daten kontrolliert werden. Bei einer Symbolischen Auswertung wird das Programm abstrakt mit einem Interpreter auf beliebigen variablen Daten bzw. symbolischen Ausdrücken auf allen Pfaden gleichzeitig ausgeführt. Für die Pfaderkundung benötigt man hier eine Strategie zwischen der Breitensuche und Tiefensuche, um die relevanten Teile des Ausführungsgraphen möglichst schnell abzudecken. In der automatisierten Analyse werden dabei offene Sprungmöglichkeiten zu nahezu beliebigen Adressen sehr interessant, da dies einen starken Indikator für einen Angriffsvektor liefern. Mit Return-oriented Programming kann man so bestehenden Code gezielt anspringen und für eigene Zwecke missbrauchen. Das Open-Source Framework Angr wurde von Forschern des Computer Security Lab at UC Santa Barbara entwickelt und belegte mit Shellphish auf der Darpa-Challenge den dritten Platz. Ein weiteres Open-Source Analyseframework ist Triton, welches man leicht in eigene Projekte einbinden kann. Sehr verbreitet ist auch das Framework S2E der École Polytechnique Fédérale de Lausanne. Ein weiterer Finalist der Cyber Grand Challenge ist das Team CodeJitsu von der University of California at Berkeley, Cyberhaven, and Syracuse. Die Binary Analysis Platform wurde vom Team um Professor David Brumley am Cylab der Carnegie Mellon University entwickelt. Funktionale Programmiersprachen wie OCAML oder Haskell haben für den Anwendungsfall der symbolischen Auswertung ganz besondere Vorteile. Ebenso werden Programmiersprachen auch auf ihre inherente Unsicherheit im Sinne der Language based security untersucht, sowie fertige Programme versucht auch auf ihre Korrektheit zu verifizieren. Ein Tool, das dies vereinfachen soll ist der Z3 Prover. Hier kommt die Suche nach Sicherheitslücke zur Mathematik: In der formalen Darstellung einer Routine kann das Verhalten als Abbildung aus symbolischen Variablen beschrieben werden, und die Suche nach einer Lösung führt auf die entsprechenden Logik oder Optimierungsverfahren. Literatur und weiterführende Informationen Florian Magin: Introduction to Automated Binary Analysis, Vortrag auf der GPN17, 2017. Program Analysis reading list D. Brumley: Analysis and Defense of Vulnerabilities in Binary Code, PhD thesis, School of Computer Science Carnegie Mellon University, 2008. Podcasts M. Musch: Steganographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 57, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. M. Lösch: Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017. F. Magin: Automated Binary Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 137, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017.
6/22/2017 • 53 minutes, 6 seconds
Bruchzonen
Stephanie Wollherr hat ihr Mathestudium am Karlsruher Institut für Technologie (KIT) absolviert und in unserer Arbeitsgruppe die Abschlussarbeit im Kontext von numerischen Methoden für Wellengleichungen geschrieben. Damals hat Gudrun Thäter sie aus dem Podcastgespräch verabschiedet mit dem Wunsch, in einigen Jahren zu hören, was sie in der Zwischenzeit mathematisches tut. Was wie eine Floskel klingen mag, hat nun zum ersten Mal tatsächlich stattgefunden - ein Gespräch zur Arbeit von Stephanie in der Seismologie an der Ludwig-Maximillians-Universität (LMU) in München. In der Geophysik an der LMU wurde in den letzten 10 Jahren eine Software zur Wellenausbreitung entwickelt und benutzt, die immer weiter um simulierbare Phänomene ergänzt wird. Stephanie arbeitet an Dynamic Rupture Problemen - also der Simulation der Bruchdynamik als Quelle von Erdbeben. Hier geht es vor allem darum, weitere physikalische Eigenschaften wie z.B. Plastizität (bisher wurde meist vorausgesetzt, dass sich das Gestein elastisch verformt) und neue Reibungsgesetze zu implementieren und in Simulationen auf ihre Wirkung zu testen. Als Basis der Simulationen stehen zum einen Beobachtungen von Erdbeben aus der Vergangenheit zur Verfügung, zum anderen versucht man auch durch Laborexperimente, die aber leider ganz andere Größenskalen als die Realität haben, mögliche Eigenschaften der Bruchdynamik miteinzubeziehen. Die Daten der Seimsologischen Netzwerke sind zum Teil sogar öffentlich zugänglich. Im Bereich Dynamic Rupture Simulationen kann man eine gewisse Konzentration an Forschungskompetenz in Kalifornien feststellen, weil dort die möglicherweise katastrophalen Auswirkungen von zu erwartenden Erdbeben recht gegenwärtig sind. Das South California Earthquake Center unterstützt zum Beispiel unter anderem Softwares, die diese Art von Problemen simulieren, indem sie synthetische Testprobleme zur Verfügung stellen, die man benutzen kann, um die Ergebnisse seiner Software mit anderen zu vergleichen. Prinzipiell sind der Simulation von Bruchzonen bei Erdbeben gewissen Grenzen mit traditionellen Methoden gesetzt, da die Stetigkeit verloren geht. Der momentan gewählte Ausweg ist, im vornherein festzulegen, wo die Bruchzone verläuft, zutreffende Reibungsgesetze als Randbedingung zu setzen und mit Discontinuous Galerkin Methoden numerisch zu lösen. Diese unstetig angesetzten Verfahren eignen sich hervorragend, weil sie zwischen den Elementen Sprünge zulassen. Im Moment liegt der Fokus darauf, schon stattgefundene Erbeben zu simulieren. Leider sind auch hier die Informationen stets unvollständig: zum Beispiel können schon vorhandenen Bruchzonen unterhalb der Oberfläche unentdeckt bleiben und auch das regionale Spannungsfeld ist generell nicht sehr gut bestimmt. Eine weitere Herausforderung ist, dass die Prozesse an der Verwerfungszone mit sehr hoher Auflösung (bis auf ein paar 100m) gerechnet werden müssen, während der Vergleich mit Werten von Messstationen, die vielleicht einige 100 km entfernt sind einen sehr großen Simulationsbereich erfordert, was schnell zu einer hohen Anzahl an Elementen führt. Die Rechnungen laufen auf dem SuperMUC Supercomputer am LRZ in Garching und wurden durch eine Kooperation mit der Informatik an der TUM deutlich verbessert. Discontinuous Galerkin Verfahren haben den großen Vorteil, dass keine großen, globalen Matrizen entstehen, was eine Parallelisierung relativ einfach macht. Auf der anderen Seite kommen durch die element-lokale Kommunikation viele kleinere Matrix-Vektor Produkte vor, die grundlegend optimiert wurden. Ein weiterer Aspekt der Zusammenarbeit mit der TUM beschäftigte sich zum Beispiel mit der zu verteilenden Last, wenn für einige Elemente nur die Wellengleichung und für andere Elemente zusätzlich noch die Bruchdynamik gelöst werden muss. Auch bei der Input/Output Optimierung konnten die Informatiker willkommene Beiträge leisten. Dieser Beitrag zeigt die Notwendigkeit von interdisziplinärer Zusammenarbeit zwischen Mathematiker, Geophysikern und Informatikern, um Erdbeben und die Dynamik ihrer Quelle besser zu verstehen. Literatur und weiterführende Informationen A. Heinecke, A. Breuer, S. Rettenberger, M. Bader, A. Gabriel, C. Pelties, X.-K. Liao: Petascale High Order Dynamic Rupture Earthquake Simulations on Heterogeneous Supercomputers, proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis SC14, 3–15, 2014. A.-A. Gabriel, E. H. Madden, T. Ulrich, S. Wollherr: Earthquake scenarios from Sumatra to Iceland - High-resolution simulations of source physics on natural fault systems, Poster, Department of Earth and Environmental Sciences, LMU Munich, Germany. S. Wollherr, A.-A. Gabriel, H. Igel: Realistic Physics for Dynamic Rupture Scenarios: The Example of the 1992 Landers Earthquake, Poster, Department of Earth and Environmental Sciences, LMU Munich. J. S. Hesthaven, T. Warburton: Nodal discontinuous Galerkin methods: algorithms, analysis, and applications, Springer Science & Business Media, 2007. M. Dumbser, M. Käser: An arbitrary high-order discontinuous Galerkin method for elastic waves on unstructured meshes—II. The three-dimensional isotropic case, Geophysical Journal International, 167(1), 319-336, 2006. C. Pelties, J. de la Puente, J.-P. Ampuero, G. B. Brietzke, M. Käser, M: Three-dimensional dynamic rupture simulation with a high-order discontinuous Galerkin method on unstructured tetrahedral meshes, Journal of Geophysical Research, 117(B2), B02309, 2012. A.-A. Gabriel: Physics of dynamic rupture pulses and macroscopic earthquake source properties in elastic and plastic media. Diss. ETH No. 20567, 2013. K. C. Duru, A.-A. Gabriel, H. Igel: A new discontinuous Galerkin spectral element method for elastic waves with physically motivated numerical fluxes, in WAVES17 International Conference on Mathematical and Numerical Aspects of Wave Propagation, 2016. Weingärtner, Mirjam, Alice-Agnes Gabriel, and P. Martin Mai: Dynamic Rupture Earthquake Simulations on complex Fault Zones with SeisSol at the Example of the Husavik-Flatey Fault in Proceedings of the International Workshop on Earthquakes in North Iceland, Husavik, North Iceland, 31 May - 3 June 2016. Gabriel, Alice-Agnes, Jean-Paul Ampuero, Luis A. Dalguer, and P. Martin Mai: Source Properties of Dynamic Rupture Pulses with Off-Fault Plasticity, J. Geophys. Res., 118(8), 4117–4126, 2013. Miloslav Feistauer and Vit Dolejsi: Discontinuous Galerkin Method: Analysis and Applications to compressible flow Springer, 2015. Podcasts S. Wollherr: Erdbeben und Optimale Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 012, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013.
6/15/2017 • 30 minutes, 22 seconds
Smart Meter Gateway
Zur GPN17 des Entropia e.V. im ZKM - Zentrum für Kunst und Medien und der Hochschule für Gestaltung (HfG) hat Manuel Lösch einen Vortrag zu Smart Meter Gateways gehalten. Manuel promoviert am FZI Forschungszentrum Informatik in Karlsruhe zu intelligenten Stromnetzen und der Flexibilisierung von elektrischen Lasten, um diese netzdienlich zur Verfügung zu stellen. Die Einführung des Smart Meter Gateway wurde mit dem Gesetz zur Digitalisierung der Energiewende Ende 2016 in Deutschland beschlossen. Dabei muss man Smart Meter Gateways deutlich von den so genannten Smart Metern oder intelligenten Zählern unterscheiden, die im Fall der elektrischen Energie den Ferraris-Zähler ablösen werden und den Stromverbrauch digital aufzeichnen und verarbeiten können. Die Kombination von intelligenten Zählern und einem Smart Meter Gateway resultiert in einem Intelligenten Messsystem, das Informationen auch an externe Entitäten wie Energielieferanten oder Netzbetreiber versenden kann. Viele Smart Meter sind mit einer Infrarot-Schnittstelle via Smart Message Language beispielsweise über das Volkszähler-Projekt auslesbar. Neuere Geräte verfügen über eine standardisierte M-Bus-Schnittstelle zur digitalen Datenübertragung zwischen Zähler und z.B. dem Smart Meter Gateway. Grundsätzlich soll die Standardisierung den Kunden das Auslesen erleichtern, damit sie einen besseren Einblick in ihr Energienutzungsverhalten erhalten und Einsparmöglichkeiten erkennen können. Gesetzlich ist sogar vorgeschrieben, dass die Nutzer eines intelligenten Zählers neben dem aktuellen Verbrauchswert sogar einen Einblick bis zwei Jahre in die Vergangenheit erhalten müssen. Bis zum Jahre 2032 sollen nach dem Gesetz zur Digitalisierung der Energiewende alle Haushalte in Deutschland mit mindestens intelligenten Zählern ausgestattet sein, und je nach Haushaltsgröße auch mit Smart Meter Gateways, die die Kommunikation nach extern ermöglichen. Die Basis des Gesetzes ist das dritte Energiepaket der EU von 2009, die den Mitgliedstaaten vorgab eine Smart-Metering-Infrastruktur einzurichten, wenn eine Kosten-Nutzen-Analyse dieses für sinnvoll erachtet. Daher wurde 2013 eine Kosten-Nutzen-Analyse durchgeführt mit dem Ergebnis, dass ein Teil-Rollout für Deutschland sinnvoll ist. So sollen zwar alle Nutzer intelligente Zähler erhalten, jedoch sind die Gateways nur für größere, sog. netzrelevante, Nutzer vorgeschrieben. Die betrachtete Nutzungsgröße kann sich mit größerer Elektromobilität jedoch stark ändern: Mit einem Elektroauto kann der Verbrauch eines kleinen Haushalts sich vervielfachen und auch die dezentrale Stromerzeugung beispielsweise durch Photovoltaik wird einbezogen. Mit der Energiewende hat sich die Belastung der Stromnetze stark geändert. Die bisher auf zentrale Versorgung ausgelegte hierarchische Netztopologie kann durch dezentrale Stromerzeugung stark belastet werden. Zur Entlastung der Netze wurden Betreiber von PV-Anlagen verpflichtet, die Einspeisung zu beschränken, entweder fest auf 70 Prozent der Maximalleistung oder über ein Einspeisemanagement gesteuert über Rundsteuertechnik. Das Smart Meter Gateway arbeitet auf drei Netzbereichen und soll eine sichere Kommunikation zwischen diesen ermöglichen. So gibt es das dem Internet bzw. Wide Area Network zur Kommunikation mit beispielsweise dem Stromanbieter, das Home Area Network für Anwendungen im eigenen Haus und das Local Metrological Network welches die eigentlichen Strom-, Wärme, Gas- und Wasserzähler beinhaltet. Im Home Area Network könnten künftig beispielsweise Geräte wie das Nest Thermostat angeschlossen werden. Dieses kann in den USA heute schon beispielsweise Wärmepumpen oder Klimaanlagen sowohl nach Nutzeranforderung und Netzanforderungen optimiert ansteuern. Dabei werden das Haus oder der Warmwasserspeicher, also bereits vorhandene thermische Energiespeicher, zur Lastverschiebung im "intelligenten" Stromnetz ausgenutzt. Das Konzept dazu ist nicht neu, seit längerer Zeit gibt es bereits den Niederstromtarif, der im Gegensatz zum Hochtarif preiswerter ist und zu Zeiten geringer Netzauslastung zur Verfügung steht. Diese Tarife werden auch heute teilweise noch mit Nachtspeicherheizungen genutzt. Auf Grund energetischer Ineffizienz wurden Speicherheizungen bereits verboten, heute erleben sie aber wieder eine gewisse Renaissance, da sie zur Pufferung überschüssiger Energie herangezogen werden können. Mit der ermöglichten Kommunikation über verschiedene Netzwerkbereiche und der Steuerbarkeit von außen steigen auch die Sicherheitsanforderungen an ein solches System. Daher sind Smart Meter Gateways in Deutschland in eine Public Key Infrastruktur eingebunden, um einen Missbrauch nach Stand der Technik zu unterbinden. Eine sehr wichtige Rolle wird hier dem Smart Meter Gateway Administrator zugeteilt, der durch digitale Zertifikate die Grundlage für die Authentifizierung der verschiedenen Kommunikationspartner setzt. Die innere Sicherheit des Smart Meter Gateway wird durch ein vom BSI zertifiziertes Sicherheitsmodul gewährleistet, das die erforderliche Kryptographie zur sicheren Kommunikation zur Verfügung stellt. Auch in manchen Smartphones werden zusätzliche Chips zur Absicherung verwendet. Auch wenn es zumindest schon einen Anbieter eines zertifizierten Sicherheitsmoduls gibt, haben sich zum Zeitpunkt der Aufnahme zwar acht Gateways zur Zertifizierung beworben, doch hat noch keines die Zertifizierung abgeschlossen, obwohl die Gesetzgeber in diesem Jahr den Start des Rollouts intelligenter Messsysteme geplant haben. Die Wahrung der Privatsphäre ist ein wichtiges Thema bei der Weitergabe von Stromverbrauchsdaten: So konnte mit Hilfe der Messdaten eines Smart Meters bereits erfolgreich bestimmt werden, welcher Film auf einem Fernseher lief. Auf der anderen Seite ist die zeitnahe und regelmäßige Weitergabe von Stromverbrauchsdaten eine sehr wichtige Informationsquelle für die Bewirtschaftung der Bilanzkreise, die wesentlich auf der Erstellung von Prognosen basiert und grundlegend für die Stabilität unseres Stromnetzes ist. Da bei kleineren Verbrauchern noch keine viertelstündlichen Verbrauchsmeldungen erzeugt werden, kommen dort standardisierte Lastprofile zum Einsatz, um den typischen Stromverbrauch von Haushalten und Gewerbebetrieben zu modellieren. Durch die steigende Elektromobilität kann sich in Zukunft durch häusliches Laden der Verbrauch eines Haushalts jedoch deutlich von Standardlastprofilen unterscheiden. Andererseits ergibt der Ladeprozess einen neuen Freiheitsgrad, um Lasten zu verschieben und gerade dann Energie zu verbrauchen, wenn diese im Überfluss vorhanden ist. Zur Koordination vieler kleiner dezentraler Energieerzeuger wurde das Konzept der virtuellen Kraftwerke ins Leben gerufen, mit dem viele kleine Kraftwerke als gemeinsame Institution an Strom- und Regelleistungsmärkten aktiv teilnehmen können. Wenn der tatsächliche Verbrauch sich von den Prognosen stark unterscheidet, so fluktuieren die Preise an der Strombörse stark, es kann an der EPEX am Spotmarkt bei starkem Überangebot sogar zu negativen Strompreisen kommen, da große Kraftwerke sich nur beschränkt regeln lassen. Diese Großhandelspreise können aber aktuell nur zu einem Teil an Endkunden weitergegeben werden, da der tatsächliche Energiepreis nur einen Teil des Endpreises ausmacht; zusätzlich fallen fixe Netzentgelte und Umlagen an. Die Steuerung dezentraler Stromerzeuger und variabler Stromverbraucher (heute v.a. Wärmepumpen und Speicherheizungen) wie oft auch die Straßenbeleuchtung erfolgt an vielen Orten und auch in Karlsruhe durch Rundsteuertechnik, welche Signale im hörbaren Frequenzbereich von 110-2000 Hz über das vorhandene Stromnetz überträgt. Um hier ein Netzsegment zu steuern sind Sendeleistungen teilweise bis im hohen Kilowattbereich erforderlich. Die Rundsteuertechnik ist an vielen Orten auch durch Funkrundsteuertechnik mit Signalen auf Langwelle oder Ultrakurzwelle realisiert. Langwellensignale wie DCF77 können mit Soundkarten empfangen und auch können Langwellen per Audioausgang gesendet werden. Zur GPN17 wurde auch der Gulasch Push Notifier alias GPN-Badge entwickelt, der ebenso zentral die Teilnehmer des Events zum Gulasch rufen sollte. Das Forschungsgebiet von Manuel behandelt die Erschließung von Flexibilität in der Erzeugung und dem Verbrauch elektrischer Energie, mit dem Ziel diese netzdienlich und gewinnbringend in sogenannten "intelligenten Stromnetzen" zur Verfügung zu stellen. Dies untersucht er aktuell im Kontext größerer Liegenschaften, welche als große Endverbraucher oft auch vor Ort über eigene dezentrale Stromerzeuger verfügen. Am FZI House of Living Labs setzt er die Forschung praxisnah um: Das Energiemanagementsystem im FZI House of Living Labs ermöglicht beispielsweise die automatisierte Steuerung der Klimaanlage passend zu Meetings und dem aktuellen Netzzustand. Literatur und weiterführende Informationen M. Lösch: Digitalisierte Stromnetze und Smart Meter in Deutschland, Ein Überblick, Vortrag auf der GPN17, 2017. B. Becker, F. Kern, M. Lösch, I. Mauser, H. Schmeck: Building Energy Management in the FZI House of Living Labs, In Proceedings of the D-A-CH Conference on Energy Informatics (pp. 95-112). Springer International Publishing, 2015. M. Lösch, D. Hufnagel, S. Steuer, T. Faßnacht, H. Schmeck: Demand Side Management in Smart Buildings by Intelligent Scheduling of Heat Pumps, In Proceedings of the IEEE International Conference on Intelligent Energy and Power Systems (IEPS), 2014. T. Fassnacht, M. Lösch, A. Wagner: Simulation Study of a Heuristic Predictive Optimization Scheme for Grid-reactive Heat Pump Operation, In Proceedings of the REHVA Annual Conference, 2015. U. Greveler, P. Glösekötterz, B. Justusy, D. Loehr: Multimedia content identification through smart meter power usage profiles, In Proceedings of the International Conference on Information and Knowledge Engineering (IKE). The Steering Committee of The World Congress in Computer Science, Computer Engineering and Applied Computing, 2012. Podcasts M. Völter, V. Hagenmeyer: Stromnetze, ein Überblick, omega tau Podcast, Episode 246, 2017. S. Ritterbusch: Digitale Währungssysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. J. Müller-Quade, A. Rupp, B. Löwe, K. Bao: Kryptographie und Privatssphäre im Stromnetz, Feature von Jan Rähm im KIT.audio Forschungspodcast des Karlsruher Instituts für Technologie, Folge 6, 2017. S. Seier, T. Alexandrin: Mieterstrom-Krimi, Abgrund oder Cliffhanger? Episode 16 im Blindstrom Podcast, 2017. M. Dalheimer, P. Hecko: Der Strom, Folge 5 im Pietcast, 2014. GPN17 Special Sibyllinische Neuigkeiten: GPN17, Folge 4 im Podcast des CCC Essen, 2017. Smart Meter Gateway, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 135, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2017
6/8/2017 • 1 hour, 24 minutes, 8 seconds
Cerebral Fluid Flow
This is one of two conversations which Gudrun Thäter recorded alongside the conference Women in PDEs which took place at our faculty in Karlsruhe on 27-28 April 2017. Marie Elisabeth Rognes was one of the seven invited speakers. Marie is Chief Research Scientist at the Norwegian research laboratory Simula near Oslo. She is Head of department for Biomedical Computing there. Marie got her university education with a focus on Applied Mathematics, Mechanics and Numerical Physics as well as her PhD in Applied mathematics at the Centre for Mathematics for Applications in the Department of Mathematics at the University of Oslo. Her work is devoted to providing robust methods to solve Partial Differential Equations (PDEs) for diverse applications. On the one hand this means that from the mathematical side she works on numerical analysis, optimal control, robust Finite Element software as well as Uncertainty quantification while on the other hand she is very much interested in the modeling with the help of PDEs and in particular Mathematical models of physiological processes. These models are useful to answer What if type-questions much more easily than with the help of laboratory experiments. In our conversation we discussed one of the many applications - Cerebral fluid flow, i.e. fluid flow in the context of the human brain. Medical doctors and biologists know that the soft matter cells of the human brain are filled with fluid. Also the space between the cells contains the water-like cerebrospinal fluid. It provides a bath for human brain. The brain expands and contracts with each heartbeat and appoximately 1 ml of fluid is interchanged between brain and spinal area. What the specialists do not know is: Is there a circulation of fluid? This is especially interesting since there is no traditional lymphatic system to transport away the biological waste of the brain (this process is at work everywhere else in our body). So how does the brain get rid of its litter? There are several hyotheses: Diffusion processes, Fast flow (and transport) along the space near blood vessel, Convection. The aim of Marie's work is to numerically test these (and other) hypotheses. Basic testing starts on very idalised geometries. For the overall picture one useful simplified geometry is the annulus i.e. a region bounded by two concentric circles. For the microlevel-look a small cube can be the chosen geometry. As material law the flow in a porous medium which is based on Darcy flow is the starting point - maybe taking into account the coupling with an elastic behaviour on the boundary. The difficult non-mathematical questions which have to be answered are: How to use clinical data for estabilishing and testing models How to prescribe the forces In the near future she hopes to better understand the multiscale character of the processes. Here especially for embedding 1d- into 3d-geometry there is almost no theory available. For the project Marie has been awarded a FRIPRO Young Research Talents Grant of the Research Council of Norway (3 years - starting April 2016) and the very prestegious ERC Starting Grant (5 years starting - 2017). References M.E. Rognes: Mathematics that cures us.TEDxOslo 3 May 2017 Young academy of Norway ERC Starting Grant: Mathematical and computational foundations for modeling cerebral fluid flow 5 years P.E. Farrell e.a.: Dolfin adjoint (Open source software project) FEniCS computing platform for PDEs (Open source software project) Wikipedia on FEniCS Collection of relevant literature implemented in FEniCS
5/25/2017 • 35 minutes, 37 seconds
Convolution Quadrature
This is one of two conversations which Gudrun Thäter recorded alongside the conference Women in PDEs which took place at our Department in Karlsruhe on 27-28 April 2017. Maria Lopez-Fernandez from the University La Sapienza in Rome was one of the seven invited speakers. She got her university degree at the University of Valladolid in Spain and worked as an academic researcher in Madrid and at the University of Zürich. Her field of research is numerical analyis and in particular the robust and efficient approximation of convolutions. The conversation is mainly focussed on its applications to wave scattering problems. The important questions for the numerical tools are: Consistency, stability and convergence analysis. The methods proposed by Maria are Convolution Quadrature type methods for the time discretization coupled with the boundary integral methods for the spatial discretization. Convolution Quadrature methods are based on Laplace transformation and numerical integration. They were initially mostly developed for parabolic problems and are now adapted to serve in the context of (hyperbolic) wave equations. Convolution quadrature methods introduce artificial dissipation in the computation, which stabilzes the numerics. However it would be physically more meaningful to work instead with schemes which conserve mass. She is mainly interested in fast algorithms with reduced memory requirements and adaptivity in time and space. The motivational example for her talk was the observation of severe acoustic problems inside a new building at the University of Zürich. Any conversation in the atrium made a lot of noise and if someone was speaking loud it was hard to understand by the others. An improvement was provided by specialised engineers who installed absorbing panels. From the mathematical point of view this is an nice application of the modelling and numerics of wave scattering problems. Of course, it would make a lot of sense to simulate the acoustic situation for such spaces before building them - if stable fast software for the distribution of acoustic pressure or the transport of signals was available. The mathematical challenges are high computational costs, high storage requirements and and stability problems. Due to the nonlocal nature of the equations it is also really hard to make the calculations in parallel to run faster. In addition time-adaptive methods for these types of problems were missing completely in the mathematical literature. In creating them one has to control the numerical errors with the help of a priori and a posteriori estimates which due to Maria's and others work during the last years is in principle known now but still very complicated. Also one easily runs into stability problems when changing the time step size. The acoustic pressure distribution for the new building in Zürich has been sucessfully simulated by co-workers in Zürich and Graz by using these results together with knowledge about the sound-source and deriving heuristic measures from that in order to find a sequence of time steps which keeps the problem stable and adapt to the computations effectively. There is a lot of hope to improve the performance of these tools by representing the required boundary element matrices by approximations with much sparser matrices. References M. López Fernández, S. Sauter: Generalized Convolution Quadrature with Variable Time Stepping. Part II: Algorithm and Numerical Results. Applied Numerical Mathematics, 94, pp. 88 - 105 (2015) M. López Fernández, S. Sauter: Generalized Convolution Quadrature based on Runge-Kutta Methods. Numerische Mathematik, 133 (4), pp. 734 - 779 (2016) S. Sauter, M. Schanz: Convolution Quadrature for the Wave Equation with Impedance Boundary Conditions. Journal of Computational Physics, Vol 334, pp. 442 - 459 (2017) Podcasts T. Arens: Lärmschutz, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 16, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. F. Sayas: Acoustic Scattering, Conversation with G. Thäter in the Modellansatz Podcast, Episode 58, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2016.
5/18/2017 • 30 minutes, 32 seconds
Augmented Reality in der Chirurgie
Die Arbeit von Staffan Ronnas in der Münchner Firma Brainlab befasst sich mit der Anwendung von Augmented Reality (AR) in der Chirurgie - vor allem in der Neurochirurgie. Ziel ist es, virtuelle, präoperativen Daten mit der "Realität" in Form von live Video auf dem chirurgischen Mikroskop so zu verblenden, dass der Chirurg vor und während der OP einen Nutzen davon hat. Staffan stammt aus Schweden und hat in Karlsruhe in Mathematik in der Arbeitsgruppe promoviert in der auch Gudrun Thäter und Sebastian Ritterbusch tätig waren. Nach seiner Verteidigung 2012 hat er einige Zeit als Postdoc in Karlsruhe und Heidelberg gearbeitet, bevor er zur Firma COMSOL in Stockholm ging. Seit September 2015 wohnt er in München und bringt seine Fähigkeiten als Softwareingenieur bei Brainlab ein. Welche Rolle spielt denn AR zur Zeit in der Chirurgie? Digitale Daten sind schon weit verbreitet in der Medizintechnik und insbesondere in der Chirurgie. Dabei handelt es sich z.B. um CT- oder MR-Bilder, aus denen man virtuelle Objekte durch Segmentierung gewinnen kann. Diese Daten können vor oder während der Behandlung (prä-/intraoperativ) entstehen und werden zur Planung der OP oder zur Navigation während des Eingriffs verwendet. Zum größten Teil werden sie klassisch auf Bildschirmen dargestellt und zur Interaktion dienen eine Maus oder ein Touchscreen oder auch Instrumente, die über Infrarotkameras getracked werden. Speziell in der Neurochirurgie kommen große Mikroskope zum Einsatz, die auch Video aufnehmen können. Das Ziel von Staffans Arbeit ist dabei präoperative virtuelle Daten mit Videodaten zu verblenden um eine erweiterte Darstellung zu zeigen, mit der der Chirurg während der OP navigieren kann. Zu dieser Zweck werden nützliche Informationen wie die aktuelle Position, das Zielobjekt und dazwischen liegende Strukturen im Video dargestellt. Um ein solches System umsetzen zu können, werden Methoden aus vielen verschiedenen Bereichen der angewandten Mathematik benötigt, wie z.B. Bildbehandlung, geometrische Modellierung, 3D Grafik und Computer Vision. Themen wie maschinelles Lernen und Robotik spielen auch eine zunehmend wichtige Rolle. Eine grundlegende Fragestellung mit der sich Staffan viel beschäftigt hat, ist die Modellierung der Optik chirurgischer Mikroskope mit variablem Fokus und Zoom. Ein genaues Modell wird benötigt, um die Lage und Größe der virtuellen Daten bei der Verblendung mit dem Videobild bestimmen zu können. Als grundlegendes Kameramodell dient das Pinholemodell, d.h. eine perspektivische Projektion von Punkten gemessen in einem 3D Koordinatensystem auf die planare Bildebene. Extrinsische Parameter sind dabei die Lage und Orientierung der Kamera im Raum (die Richtung der "optische Achse"). Die intrinsischen Parameter sind abhängig von der Optik z.B. die Brennweite (Skalierung von mm auf pixel-Maß) und verschiedene Arten von Verzerrung. Die Parameter des nichtlinearen Kameramodells werden bestimmt durch Minimierung der Reprojektionsfehler in Aufnahmen von einer bekannten Geometrie. Typischerweise wird der Levenberg-Marquardt Algorithmus benutzt um das Optimierungsproblem zu lösen. Es gibt aber mehrere Schwierigkeiten: Der Modell ist nicht konvex wodurch lokale Minima möglich sind; Die Berechnung der Parameter wird vom Messfehler beeinflusst; Die begrenzte Schärfentiefe und großer Arbeitsabstand erschweren die Messungen; Als Lösung bietet es sich an ein einfacheres Modell zu verwenden und dadurch zu vermeiden, dass redundante Parameter geändert werden. Allerdings muss man darauf achten, dass das Ergebnis immer noch ausreichend Genauigkeit bietet. Literatur und weiterführende Informationen Z. Yaniv, C. A. Linte: Applications of Augmented Reality in the Operating Room (Preprint), in Fundamentals of Wearable Computers and Augmented Reality, Second Edition, ch. 19, CRC Press, 2015. I. Cabrilo, P. Bijlenga, K. Schaller: Augmented reality in the surgery of cerebral aneurysms: a technical report, Operative Neurosurgery, 10.2: 252-261, 2014. Z. Zhang: A Flexible New Technique for Camera Calibration, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 22, pp. 1330–1334, 2000. Übersicht Brainlab Mikroskopintegration Podcasts Y. Liang: Bewegte Computertomographie, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 6, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. I. Waltschläger: Windsimulation, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. D. Breitenbach, U. Gebhardt, S. Gaedtke: Raketen, CT-MRT-PET-etc, Widerstände, Proton Podcast, Folge 17, 2017. F. Rau: Augmented Reality Gaming, Gespräch mit T. Nowak im Kulturkapital Podcast, Folge 28, 2017.
5/11/2017 • 38 minutes, 24 seconds
Bakterienkommunikation
Diese Folge ist eines von drei Gesprächen mit Mathematikerinnen und Mathematikern an der TU München in Garching bei München, die Gudrun am 10. April 2017 dort geführt hat. Christina Kuttler enwickelt und untersucht mathematische Modelle, die helfen, Bakterien-Kommunikation besser zu verstehen. Ausgangspunkt des Forschungsthemas war die Beobachtung, dass bestimmte Meeresbakterien (nämlich Aliivibrio fischeri) im Leuchtorgan des Tintenfisches Euprymna scolopes Licht aussenden können, sobald genug von ihnen vorhanden sind. Natürlich stellte sich die Frage: Wie stellen sie fest, dass sich leuchten lohnt, d.h. dass genug Bakterien ihrer Art versammelt sind? Biologie musste also durch gezielte Experimente und allgemeine Beobachtungen klären: Was und wie kommunizieren diese und andere Bakterien? Die typischen Antwort im Umfeld der Arbeitsgruppe von Christina Kuttler sind: Bakterien eruieren über chemische Signalstoffe, die in den Zellen produziert und ausgetauscht werden, ob in örtlicher Nähe noch mehr Bakterien ihrer Art vorhanden sind und in welcher Konzentration. Dafür haben sie Rezeptoren in den Zellen, die die Signalstoffkonzentration messen. Auf die gleiche Weise können sich auch bestimmte Krankheitserreger zunächst vermehren ohne den Wirt anzugreifen. Erst wenn eine gewisse Schwelle überschritten wird, ändern sie ihr Verhalten und beginnen ihre Wirkung zu entfalten. Die Änderung des Verhaltens unter den Bedingungen "ich bin fast allein" bzw. "wir sind viele" erfolgt über Genregulationssysteme, d.h. konkrete Informationen auf den Genen werden aktiviert oder ausgeschaltet - je nachdem welche Signalstoffkonzentration gemessen wird. In diese Prozesse kann man durch Marker in experimentellen Untersuchungen eingreifen und dadurch auch messen. Die dabei gewonnenen Daten werden in Modelle gegossen, die so komplex sind, dass man sich dafür Mathematiker und Mathematikerinnen ins Team holt. Meist werden große Systeme von Differentialgleichungen aufgestellt und durch Untersuchung der Lösungseigenschaften der Gleichungen kann man überprüfen, welche Experimente noch weiter Aufschluss darüber geben können, ob das System ein gutes Modell für das Verhalten der Bakterien ist. Hierzu sind einerseits qualitative Untersuchungen der Gleichungen hilfreich, die z.B. Bereiche finden, in denen bestimmte Werte steigen oder fallen (und wie schnell, d.h. in welcher Ordnung) oder wo Stabilitätseigenschaften vorliegen. Es kommt dabei z.B. vor, dass Stabilitätsbereiche mathematisch detektiert werden, die erst später durch Experimente nachgestellt und dadurch verifiziert werden. Andererseits erfolgt eine quantitative Untersuchung, d.h. die Systeme von Differentialgleichungen werden numerisch (näherungsweise) gelöst. Es ist möglich auf diese Weise auch für verschiedene dem Prozess inhärente Zeitskalen die Modelle zu simulieren, denn dafür stehen gute und gut verstandene numerische Verfahren zur Verfügung. Beide Zugänge führen zu Ergebnissen, die als gemeinsame Erfolge von Mathematik und Biologie veröffentlicht werden. Im Wesentlichen konzentrieren sich die Forschergruppen darauf, Prinzipien zu verstehen, die hinter der beobachteten Bakterien-Kommunikation stehen. In der bisherigen Arbeit und in naher Zukunft werden noch kaum stochastische Effekte in Modellen berücksichtigt und in der Regel sind nur gemittelte Werte im Modell dargestellt. Im Moment wird der Zugang auf die Untersuchung von Bakteriophagen ausgedehnt und könnte dazu führen, dass man Alternativen zu klassischen Antibiotika entwickeln kann. Prof. Christina Kuttler hat seit 2008 die Professur für Mathematik in den Lebenswissenschaften an der TUM inne. Sie hat in Tübingen Mathematik, Physik & Informatik studiert und dort auch promoviert. Sie wechselte 2004 nach München - zunächst als Postdoc im Institut für Biomathematik und Biometrie am dortigen Helmholtzzentrum. Literatur und weiterführende Informationen B.A. Hense, C. Kuttler e.a.: Efficiency Sensing - was messen Autoinduktoren wirklich? Biospektrum 01.08 (18-21), 2008. Stephen J. Hagen (Ed.): The Physical Basis of Bacterial Quorum Communication, Springer Verlag, 2015. P. Kumberger, C. Kuttler, P. Czuppon, B.A. Hense: Multiple regulation mechanisms of bacterial quorum sensing, Biomath 5, 1607291 (open access), 2016. L. Tetsch: Tintenfisch mit Taschenlampe, Spektrum Magazin, 2016. Podcasts L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. K. Leinweber, M. von Toor: Betreutes Überleben, KonScience Podcast, Folge 30, 2015.
5/4/2017 • 30 minutes
Wissenschaftskommunikation
Der March for Science am 22. April 2017 hat auch in Deutschland ein großes Echo gefunden. Es gab Veranstaltungen in Berlin, Bonn, Dresden, Frankfurt/Main, Freiburg/i.Br., Göttingen, Greifswald, Hamburg, Heidelberg, Helgoland, Jena, Kassel, Koblenz, Leipzig, München, Rostock, Stuttgart, Trier und Tübingen mit schließlich über 37.000 Teilnehmern. Unter dem Eindruck der Vorbereitungen auf den 22. April haben sich Gudrun Thäter und Annette Leßmöllmann zum Gespräch getroffen. Sie teilen das Interesse an den Fragen: Welche Rolle hat Wissenschaft in unserer Gesellschaft? Welche Rolle sollte sie haben? Wie nimmt Wissenschaftskommunikation darauf Einfluß? Dabei haben sie unterschiedliche Rollen und Erfahrungen, die im Gespräch zu einer persönlichen Einschätzung des Status quo und der Wünsche für die Zukunft zusammengeführt werden. Annette Leßmöllmann leitet die Abteilung Wissenschaftskommunikation im Institut für Germanistik des KIT, das heißt sie forscht und lehrt im Bereich Wissenschaftskommunikation. Ihr Interesse lässt sich kurz fassen als: Was nehmen die Konsumenten wissenschaftlicher Botschaften für ihren Alltag mit? Drei Gedanken stehen am Anfang des Gespräches: Die Rolle von Wissenschaft ist auch eine ökonomische Frage: Wer stellt Geld für Wissenschaft bereit und mit welchen Zielen? Was ist wissenschaftliches Erkennen und was ist ihr Vorteil als Sicht der Welt? Demokratie und Pressefreiheit sind nicht selbstverständlich. Tatsächlich wird die Arbeit mit Studierenden immer politischer, was sich erst kürzlich am großen Interesse am Vortrag von Michael Blume zum Themenfeld "Wahrheit" zeigte. Am Beispiel der Mathematik zeigen sich konträre Eintwicklungen. Einerseits durchlaufen alle in Deutschland eine mathematische Schulbildung von 10-13 Jahren und setzen das häufig in Ausbildung oder Studium fort. Gesellschaftlich akzeptiert ist jedoch die Aussage: "Das brauche ich später sowieso nicht..." Was noch nie zutreffend war, aber mit der aktuellen Entwicklung in Alltag und Technik immer unwahrer wird, denn fast jede/r muss mit Wahrscheinlichkeiten hantieren und Daten deuten, Kausalität von Korrelation unterscheiden, Entscheidungen beurteilen oder treffen, die auf Computer-Simulationen beruhen. Man bräuchte dafür auch psychologische Forschung, z.B. um den Umgang von Menschen mit Risikobotschaften besser zu verstehen. Denn wir treffen häufig sehr wichtige Entscheidungen unter Zeitdruck und mit nur teilweise zugänglichen Informationen. Dem trägt inzwischen auch ein von der DFG finanziertes Schwerpunktprogramm Rationalität Rechnung. Durchdringung der Berufswelt mit Hochtechnologie und Computern führt zu Monitorrückseitenberatung bei Banken/Reisebüros etc. inkl. dem Effekt "the computer says no". Damit wird Erfahrungs- und IInsiderwissen der klassischen Berufsausbildung in Deutschland entwertet. Anweisungen von Spezialisten sind schwerer durchschaubar für untergebene. Dies führt zu latenten Vorbehalten gegen gebildete Leute ("die wissen ja nichts sondern sind nur eingebildet") und einer gefühlten Benachteiligung. Gleichzeitig erfolgt eine versteckte Umverteilung des Vermögens von unten nach oben und damit eine echte Benachteiligung der Mehrheit. Technische und soziale Kompetenz greifen zusammen in der Nutzung moderner Medien. Es ändern sich auch die Formen von Gesprächen hierdurch. Wissenschaftskommunikation muss man deshalb auch auf die Art der Kommunikation der jungen Leute abstimmen.Man könnte diese Entwicklung doch auch dazu nutzen, um Beratung zu verbessern! Dazu bräuchten Mitarbeiter aber auch Spielraum und eine andere kommunikative Ausbildung. Es ändert auch die Arbeit im Journalismus, denn Nachrichten sind inzwischen überall verfügbar, aber das Einordnen und Wichten wird zum eigentlichen Spezialwissen. Eine wichtige Rolle kommt Modellen zu. Sie ermöglichen die Einordnung der Geschehnisse in der Welt in einen persönlichen Zusammenhang, d.h. genügend vereinfacht, um sie mit Sinn zu füllen und darüber kommunizieren zu können. Die Schulbildung müsste dem Rechnung tragen, ist aber strukturell unterfinanziert und als Beruf und Berufung ist das Lehramt nicht genug wert geschätzt. Auch Universitäten werden immer abhängiger von Geldgebern mit bestimmten eng gesteckten Zielen. Wenn offensichtliche Lügen wenig bis gar keine Konsequenzen haben, greift das die Position von rational begründeten Entscheidungen - also auch eine im Kern von wissenschaftlichen Erkenntnissen getragener Weltaneignung - an der Wurzel an. Als Wissenschaftlerinnen können wir das nur schwer ertragen. Was sind aber Fakten? In der wissenschaftlichen Auseinandersetzung geht es dabei stets um Interpretation von Daten und unterschiedliche Formen von Gewissheit. Was davon ist diskutabel oder überhaupt öffentlich diskutierbar? Als Menschen in der Forschung müssten wir außerhalb unserer Arbeitswelt offensiv für wissenschaftliche Kriterien werben. Wir müssen verstehen, wieso Leute Kraftposen so bewundernswert finden und rationale Diskussionen als "Liberales Getue" abwerten. Das ist unabhängig von Fakten sondern sehr emotional geprägt. Wir als Forscherinnen müssen verstehen, dass unser Fortschrittsglaube außerhalb der Wissenschaft in der Gesellschaft nicht geteilt. wird: "Meine Kinder werden es nicht so gut haben wie ich." Literatur und weiterführende Informationen B. Lugger (Leitung NaWik) Redebeitrag beim March of Science in Heidelberg Bachelor-Studiengang Wissenschaft – Medien – Kommunikation am KIT Master-Studiengang Wissenschaft – Medien – Kommunikation am KIT Blog der Abteilung Wissenschaftskommunikation mit Kurzbeitrag und Storify zum March of Science
4/27/2017 • 1 hour, 44 seconds
Social Choice
Diese Folge ist eines von drei Gesprächen mit Mathematikerinnen und Mathematikern an der TU München (TUM) in Garching bei München, die Gudrun am 10. April 2017 dort geführt hat. Paul Stursberg - hat an der TUM Mathematik studiert und promoviert dort am Lehrstuhl Angewandte Geometrie und Diskrete Mathematik. Wir haben uns über Gruppenentscheidungsmodelle (Social Choice) unterhalten, in denen mitunter auch der Zufall Hilfestellung gibt. Da auch Zuordnung nach Vorlieben (allocation) auf das gleiche Grundproblem führt, wird das Thema unter den Forschungsinteressen von Paul Stursberg als Randomized Social Choice/Ressource Allocation aufgeführt.Das grundlegende Ziel bei Entscheidungen in einer Gruppe ist es, Einzelmeinungen zu einem fairen Gesamturteil zusammen zu führen. Am einfachsten ist es, einer als Anführer von allen anerkannten Person in ihrer Meinung zu folgen. Dieses Modell hat gute mathematische Eigenschaften, funktioniert immer, ist aber leider nicht besonders demokratisch. Je nachdem ob die Leitperson zur Gruppe gehört oder nicht wird es als Modell des internen/externen Diktators bezeichnet. Ein zunächst nahe liegender Zugang zur bestmöglichen Entscheidung in einer Gruppe wäre, eine Nutzenfunktion auzufstellen und danach zu optimieren. Das klingt überzeugend ist aber oft ein unmögliches Unterfangen, weil es sich als sehr schwierig erweist, Vorlieben so zu quantifizieren dass man über die Gruppe konstante Zahlenwerte für einen entstehenden Nutzen findet. Deshalb kann man statt dessen mit ordinalen Präferenzrelationen arbeiten, d.h. im einfachsten Fall mit einer gewünschten Reihenfolge aller Optionen für jede Person der Gruppe. Bevor man über Verfahren sprechen und diese bewerten kann, braucht man Kriterien, die Wahlverfahren (idealerweise) erfüllen sollen. Man muss definieren: Was ist eine gute und faire Entscheidung? Ein grundlegendes Kriterium wäre beispielsweise: Wenn alle der gleichen Meinung sind, sollte diese Meinung auch immer als Ergebnis der Gruppenentscheidung erscheinen. Ein etwas weitergehendes Kriterum könnte exemplarisch auch verlangen, dass das Ergebnis Pareto-optimal ist, es also kein anderes Ergebnis gibt, mit dem jedes Gruppenmitglied zufriedener wäre.Nachdem ein Katalog von Kriterien aufgestellt wurde, kann man sich unter anderem folgende Fragen stellen: Finden wir Wahlverfahren, die all diese Kriterien erfüllen? Wenn ja, welche Wahlverfahren sind das? Können wir sie charakterisieren? Wenn nein, lässt sich zeigen, dass kein Wahlverfahen alle Kriterien zugleich erfüllen kann?Ein bekanntes Beispiel für den letzten Fall ist der Satz von Arrow - ein Unmöglichkeitsresultat, das besagt, dass eigentlich sinnvolle Bedingungen an ein Wahlergebnis für mehr als zwei Optionen nicht gleichzeitig erfüllbar sind.Hinsichtlich der Fairness kommen Wahlverfahren intuitiv schon an ihre Grenzen, wenn sich zwei Leuten abstimmen sollen, die gegensätzliche Wünsche haben: Jede (deterministische) Entscheidung bevorzugt offensichtlich einen der beiden Beteiligten. Hier kann man sich den Zufall zunutze machen, um eine faire Entscheidung zu treffen, was auf das Gebiet der randomisierten Sozialwahltheorie (randomized social choice) führt. Hier hängen viele Kriterien plötzlich davon ab, welche lottery extension verwendet wird, also wie aus ordinalen Präferenzrelationen Präferenzen über Wahrscheinlichkeitsverteilungen abgeleitet werden. Literatur und weiterführende Informationen H.-J. Bungartz e.a.: Modellbildung und Simulation - Eine anwendungsorientierte Einführung Kapitel 4: Gruppenentscheidungen, Springer, 2009. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011. W. J. Cho: Probabilistic assignment: A two-fold axiomatic approach, 2012. H. Aziz, F. Brandt, and M. Brill: On the tradeoff between economic efficiency and strategyproofness in randomized social choice In Proceedings of the 12th International Conference on Autonomous Agents and Multi-Agent Systems (AAMAS), pp 455–462. IFAAMAS, 2013. H. Aziz, P. Stursberg: A generalization of probabilistic serial to randomized social choice. In Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence (AAAI-14), pp 559-565. AAAI Press, Palo Alto, 2014. Podcasts M. Lübbecke: Operations Research, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 110, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Staudt: Wahlsysteme, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 27, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. M. Fehndrich: Wahlrecht und Wahlsysteme, Gespräch mit T. Pritlove im CRE Podcast, Folge 128, Metaebene Personal Media, 2009.
4/20/2017 • 38 minutes, 50 seconds
Ausgründung Chromatographie
Mit Teresa Beck setzt Gudrun das 2014 mit Tobias Hahn geführte Gespräch fort. Die Software ChromX zur Computersimulation von Chromatographie-Säulen ist inzwischen Teil des Portfolios einer Ausgründung aus dem KIT mit dem Namen GoSilico. Neben Thiemo Huuk, der gleichzeitig mit Tobias Hahn im Rahmen seiner biotechnologischen Promotion die Kundenbedürfnisse für Chromatographie-Simulationen erforscht hat, und Tobias Hahn ist Teresa als dritte im Team Gründerin der im Januar 2016 an den Start gegangenen GmbH. Tobias ist Diplom-Mathematiker. 2010-2015 modellierte er im Rahmen seiner Promotion Aufreinigungsprozesse mit modernen mathematischen Simulationswerkzeugen. Es erwies sich als sinnvoll, dafür schließlich ganz in die Bio-Verfahrenstechnik zu wechseln. Teresa Beck ist hingegen Diplom-Meteorologin, deren Faszination für die Modellierung der Wetterphänomene am Computer schließlich zu einer Promotion in Mathematik am EMCL (erst in Karlsruhe und dann in Heidelberg) führte. Einige Zeit haben Gudrun, Tobias und Teresa in der gleichen Gruppe am Institut für Angewandte und Numerische Mathematik am KIT gearbeitet, bevor sich die Wege wieder trennten. Der Kern des Programms ChromX ist eine parallelisierte Finite Elemente Simulationssoftware für die Advektions-Diffusions-Gleichungen in Aufreinigungsprozessen. Die Benutzer sind jedoch keine mathematischen Experten, sondern in der Regel Laborantinnen und Laboranten. Deshalb ist es genauso wichtig, eine funktionierende Simulation zu realisieren, wie eine grafische Oberfläche zu schaffen, die ganz intuitiv die Laborerfahrung nachbildet und dabei die Mathematik "versteckt". Schließlich sollen teure Experimente ersetzt werden und dafür muß die Bedienung den Personen im Labor leicht fallen und möglichst Freude machen. Alle eigentlich für die Mathematik wichtigen Parameter, die auf Parallelisierung, Wahl nichtlinearer Löser oder schlechte Kondition des Problemes Einfluß nehmen, muss das Programm eigenständig sinnvoll setzen, denn für den normalen Benutzer sind diese unverständlich. Dafür müssen Parameter-Konfigurationen, die für die Bedienung gesetzt werden, von vornherein sinnvoll eingeschränkt werden, um die Stabilität und Korrektheit der Simulation zu gewährleisten. Daneben gibt es jedoch auch eine Experten-Lösung, wo ein Parameterfile direkt übergeben werden kann. Es ist immer etwas ungewiß, wie erfolgreich Ideen aus der Forschung in ein florierendes Unternehmen übersetzt werden können. Für die Gründung von GoSilico war aber in der ganzen Entwicklungsphase schon die Industrie-Tauglichkeit mitgedacht und geeignete Partner mit am Tisch. Durch die Präsentation der Erfolge mit der Forschungssoftware auf Tagungen gab es auch schon vor der Ausgründung viel Interesse an einer zukünftigen Zusammenarbeit. Deshalb lagen zur Gründung viele Letters of intent vor. Wichtiger Teil des Alltages im Unternehmen ist es jetzt, die Software zu verkaufen. Es dauerte in den Verhandlungen bisher zwischen 70 und 250 Tage bis Firmen wirklich die Software erwarben. Meist folgte auf eine schnelle Zustimmung aus den Fachabteilungen (die aber (leider noch) keine Budgets für solche Software haben) die länger währende Abklärung aller rechtlichen Verpflichtungen auf beiden Seiten bevor die zuständigen übergeordneten Stellen das Geld für den Kauf freigaben. Das liegt auch daran, dass diese Art von Chromatographie-Simulation noch ganz neuartig ist und die Abläufe in den Unternehmen schießlich neu ordnen wird. Wichtig für eine vertrauensvolle Zusammenarbeit ist, dass das interne Wissen der Firmen (intellectual property) geschützt bleibt (z.B. gegenüber anderen Firmen, die die Software auch erwerben oder schon benutzen). Nach etwas mehr als einem Jahr sind aber schon sechs große Kunden aus den weltweiten Top 20 gewonnen worden. Das Ziel für 2017 lautet, noch zwei weitere zu gewinnen. Dafür stehen die Chancen gut. Gerade wächst das Team um mehrere Personen, damit die Weiterentwicklung, Dokumentation und Zertifizierungsverfahren (nach TÜV oder ISO) auf mehr Schultern verteilt werden können. Literatur und weiterführende Informationen ChromX: Simulation toolbox for liquid chromatography of proteins. GoSilico: Company for software and methods for computer-aided – in silico – bioprocess development Simone Schappert - KIT-Gründerschmiede Gründer des Monats Juli 2016. Teresa Beck, Tobias Hahn, Thiemo Huuk, Jürgen Hubbuch: In-Silico Process Development: Success Stories. Poster presented at: 29th International Symposium on Preparative and Process Chromatography; 07/2016; Philadelphia, Pennsylvania, USA, 2016. Tobias Hahn, Thiemo Huuk, Vincent Heuveline, Jürgen Hubbuch: Simulating and Optimizing Preparative Protein Chromatography with ChromX. Journal of Chemical Education 09/2015; 92:1497–1502. DOI:10.1021/ed500854a, 2015. Gang Wang, Till Briskot, Tobias Hahn, Pascal Baumann, Jürgen Hubbuch: Estimation of adsorption isotherm and mass transfer parameters in protein chromatography using artificial neural networks. Journal of Chromatography A 03/2017; 1487:211–217. DOI:10.1016/j.chroma.2017.01.068, 2017. Thiemo C. Huuk, Tobias Hahn, Katharina Doninger, Jan Griesbach, Stefan Hepbildikler, Jürgen Hubbuch: Modeling of complex antibody elution behavior under high protein load densities in ion exchange chromatography using an asymmetric activity coefficient. Biotechnology Journal 03/2017, 1600336. DOI:10.1002/biot.201600336, 2017. Podcasts T. Hahn: Chromatographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 21, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. A. Osberghaus: Versuchsplanung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 22, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
4/13/2017 • 40 minutes, 13 seconds
Isoperimetrische Probleme
Moritz Gruber hat an unserer Fakultät eine Doktorarbeit zu isoperimetrischen Problemstellungen verteidigt und spricht mit Gudrun Thäter über sein Forschungsgebiet. Ein sehr bekanntes Beispiel für ein solches Problem kommt schon in der klassische Mythologie (genauer in Vergils Aeneis) als Problem der Dido vor. Vergil berichtet, dass Dido als Flüchtling an Afrikas Küste landete und sich so viel Land erbat, wie sie mit der Haut eines Rindes umspannen kann. Was zunächst wie ein winziges Fleckchen Erde klingt, wurde jedoch durch einen Trick groß genug, um die Stadt Karthago darauf zu gründen: Dido schnitt die Tierhaut in eine lange Schnur. Das mathematische Problem, dass sich ihr anschließend stellte und das als Didos oder isoperimetrisches Problem bezeichnet wird ist nun: Welche Fläche mit einem Umfang gleich der vorgegebenen Schnurlänge umfasst den größten Flächeninhalt? Natürlich wird dieses Problem zunächst etwas idealisiert in der Euklidischen Ebene gestellt und nicht in der konkreten Landschaft Karthagos. Es ist ein schwieriges Problem, denn man kann nicht alle Möglichkeiten ausprobieren oder einfach die Fälle durchkategorisieren. Andererseits liegt die Vermutung sehr nahe, dass der Kreis die Lösung ist, denn man kann sich schnell überzeugen, dass Symmetrien ausgenutzt werden können, um die eingeschlossene Fläche zu maximieren. Der Kreis hat unendlich viele Symmetrieachsen und schöpft diese Konstruktion deshalb gut aus. Trotzdem war ein stringenter Beweis erst im 18. Jh. mit den bis dahin entwickelten Methoden der Analysis möglich. Unter anderem mussten Verallgemeinerungen des Ableitungsbegriffes verstanden worden sein, die auf dieses Optimierungsproblem passen. Moritz Gruber interessiert sich für Verallgemeinerungen von isoperimetrischen Problemen in metrischen Räume, die in der Regel keinen Ableitungsbegriff haben. Die einzige Struktur in diesen Räumen ist der Abstand. Eine Möglichkeit, hier Aussagen zu finden ist es, das Verhalten für große Längen zu untersuchen und das Wachstum von Flächen in Abhängigkeit vom Wachstum des Umfangs zu charakterisieren. Naheliegend ist eine Approximation durch umschriebene und einbeschriebene Quadrate als obere und untere Schranke für die Fläche, die tatsächlich umschlossen und nicht so einfach berechnet werden kann. Außerdem interessieren ihn Verallgemeinerung auf Lie-Gruppen. Sie sind gleichzeitig differenzierbare Mannigfaltigkeit und Gruppe. Die Gruppenverknüpfung und Inversenbildung ist kompatibel mit der glatten Struktur. Sogenannte nilpotente Lie-Gruppen sind den kommutativen (d.h. abelschen) Gruppen am nächsten und bieten ihm die Möglichkeit, dort Ergebnisse zu erhalten. Die Übertragung der isoperimetrischen Probleme und mathematischen Methoden in höhere Dimensionen ergibt sehr viel mehr Möglichkeiten. In der Regel sind hier sind die unteren Schranken das schwierigere Problem. Eine Möglichkeit ist der Satz von Stokes, weil er Maße auf dem Rand und im Inneren von Objekten vernküpfen kann. Literatur und weiterführende Informationen M.R. Bridson: The geometry of the word problem In Invitations to Geometry and Topology, ed. by M.R. Bridson & S.M. Salomon, Oxord Univ. Press 2002. L. Capogna, D. Danielli, S.C. Pauls & J.T. Tyson: An introduction to the Heisenberg group and the sub-Riemannian isoperimetric problem. Birkhäuser Progress in Math. 259, 2007. M. Gruber: Isoperimetry of nilpotent groups (Survey). Frontiers of Mathematics in China 11 2016 1239–1258. Schnupperkurs über metrische Geometrie Podcasts L. Schwachhöfer: Minimalflächen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 118, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. P. Schwer: Metrische Geometrie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
3/16/2017 • 28 minutes, 2 seconds
New York
Eva-Maria Walz und Kathrin Kadel studieren Mathematik und Verfahrenstechnik am Karlsruher Institut für Technologie (KIT) und trafen sich in einem Softwarepraktikum zu Strömungssimulationen von Mathias Krause und erhielten darauf die Chance auf ein Auslandspraktikum am City College of New York (CCNY) in den USA, von dem sie uns im Gespräch mit Gudrun Thäter erzählen. Die ersten Eindrücke waren überwältigend; auf der einen Seite Campusgebäude wie Kathedralen, auf der anderen Seite sehr viel Sicherheitspersonal und häufige Ausweiskontrollen. Nachdem die ersten organisatorischen Hürden überwunden waren, konnten sie sehr schnell in der Gruppe um Prof. Taehun Lee (Ph.D.) mitarbeiten. Ihr Thema war die Sedimentation von Partikeln einmal auf Basis von OpenFOAM und einmal auf Basis von OpenLB. Speziell ging es um die Modellierung von kreis- und kugelförmigen Partikeln und der Interaktion zweier Partikel und dem Vergleich von Ergebnissen und Performance. Die beiden wurden während ihres Praktikums sowohl von der Gruppe in New York als auch von der Gruppe in Karlsruhe weiter betreut und hatten die Gelegenheit an externen Workshops in New York teilzunehmen. Sehr spannend fanden die beiden auch den Einblick in die andere Lehr- und Lernkultur in den Vereinigten Staaten. Da das Praktikum in die Zeit der Präsidentschaftswahl 2016 fiel, war ihr Aufenthalt geprägt von rückschrittlichen Einstellungen zur Immigration, der geschlechtlichen Gleichberechtigung und Rolle der Bildung in der Gesellschaft. Neben den Reaktionen auf die Wahl in der Gesellschaft erlebten sie auch die Reaktionen der internationalen Forschungsgruppe, bei der sie zu Gast waren. Der Aufenthalt wäre ohne Baden-Württemberg-Stipendium nicht möglich gewesen und die Wohnungssuche ist in einer Stadt wie New York nur vor Ort möglich. Die Organisation für einen akademischen Aufenthalt sollte man auf jeden Fall mit viel zeitlichem Vorlauf einplanen. Die Chancen durch einen Auslandsaufenthalt sind aber immer den Aufwand für die Organisation wert.
2/23/2017 • 32 minutes, 18 seconds
Topologieoptimierung
Margarita An hat ihre Masterarbeit im Rahmen einer Zusammenarbeit mit Dassault Systèms Deutschland (mit Sitz im Technologiepark in Karlsruhe) geschrieben. Sie hat Technomathematik mit dem technischen Nebenfach Maschinenbau studiert. Deshalb war sie daran interessiert für ihre Abschlußarbeit eine mathematische Fragestellung für eine möglichst konkretes Problem im Maschinenbau zu finden. Nun hat sie eine neue Optimierungsstrategie entwickelt und implementiert, die Eulersche Formoptimierung mit Topologieoptimierung kombiniert. Formoptimierung bedeutet, ein Modell in seiner Form so zu verändern, dass ein bestimmtes Zielfunktional - z.B. die Spannungsbilanz im Körper - minimal wird. De Facto bedeutet das, dass die Oberfläche des Körpers bzw. sein Rand im Optimierungsprozess verändert wird. Eulersch heißt hierbei, dass die Geometrie des Randes mit Hilfe von Kontrollpunkten auf einem festen Netz definiert wird, während sich in der Lagrange-Formulierung das Netz während des Optimierungsprozesses verändert. Letzteres führt jedoch zu einer Abhängigkeit aller Algorithmen und Rechnungen von den Rechengitterknotenkoordinaten. Hierfür dienen insbesondere regelmäßige Finite Elemente (kurz FE) Netze aus Quadraten bzw. Würfeln als Rechengitter. Die Kontrollpunkte sind dann die Designvariablen. Die Idee ist es, die Beschreibung des Randes vom FE-Netz zu trennen, d.h. die Oberfläche kann sich durch das Rechengitter "bewegen", ohne es zu beachten. Anstatt im Rechengitter Knoten mit dem Rand zu verändern, wird in dem betroffenen Teilgebiet des Modells ein Pseudodichtefeld wie von Topologieoptimierung bekannt, bestimmt. Dementsprechend kann die topologische Sensitivität mit einem Topologieoptimierungs-Werkzeug (z.B. Tosca Structure oder anderer CAD-Software) berechnet werden. Entscheidend dafür dass das gut funktioniert ist, dass die Abbildungsfunktion, welche topologische Sensitivität in Formoptimierungs-Sensitivität transformieren kann, linear ist. Falls sich während des Optimierungsprozesses die FE-Netze ändern dürfen, vereinfacht das die Optimierung erheblich - vor allem die Sensitivitäts-Analyse. Auf der anderen Seite, ist die Beschreibung der Geometrie in Bezug auf die Randkurven oder Oberflächen natürlich etwas komplizierter. Wie die in der Arbeit vorgestellten Beispiele zeigen, ermöglicht der modifizierte Ansatz für Eulersche Formoptimierung jedoch durchaus optimale Lösungen ohne Gitter-Verformungen. Es gibt sogar ein recht einfaches Beispiel dafür, dass der Lagrange-Ansatz versagt, während der Eulersche Ansatz schnell die gewünschte Lösung findet. Literatur und weiterführende Informationen K. Bandara, T. Rüberg & F. Cirak Shape: Optimisation with Multiresolution Subdivision Surfaces and Immersed Finite Elements Computer, Methods in Applied Mechanics and Engineering 300, 510-539, 2016. N.H. Kim & Y. Chang: Eulerian Shape Design Sensitivity Analysis and Optimization with a Fixed Grid Computer Method in Applied Mechanics and Engineering 194, 3291-3314, 2005. Kimmich: Strukturoptimierung und Sensibilitätsanalyse mit finiten Elementen Berich Nr. 12, Institut für Baustatik der Universität Stuttgart, 1990. Podcasts P. Allinger und N. Stockelkamp: Strukturoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 053, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
2/16/2017 • 39 minutes, 10 seconds
Fußgängergruppen
Mathias Zeleny hat sich im Rahmen seiner Masterarbeit damit beschäftigt, wie man in Fußgängersimulationen berücksichtigen kann, dass Menschen oft in Gruppen unterwegs sind. Natürlich wäre für realistische Simulationsergebnisse die Berücksichtigung von Gruppen sehr wichtig. Besonders deutlich wird das an so katastrophalen Ereignissen wie den Unglücksfällen im Rahmen des Haddsch in Mekka. Allerdings gibt es bisher kein allgemain akzeptiertes Modell für Gruppen in Fußgängersimulationen. Was ist die Hauptcharakteristik des Verhaltens einer Fußgängergruppe? Dass die Personen in der Regel nah beieinander bleiben. Allerdings ist dies sehr vage und wird beispielsweise an Hindernissen auch durchbrochen. Das "nah beieinander bleiben" läßt sich durch anziehende Kräfte modellhaft darstellen. Mathias betrachtete hierfür drei Modelle: Jede/r zieht jede/n an, alle folgen einer Person, Nachzügler schließen auf. Um mit diese Modelle zu testen, hat Mathias ein Interface programmiert, in dem diese Gruppenmodelle für verschiedene Szenarien durchgespielt wurden. Die gewählten Geometrien waren dabei: Von links nach rechts ungehindert einen Korridor entlang laufen, Korridor entlang laufen mit Hindernis, Korridor entlang laufen mit Gegenverkehr. Die Reaktion auf die Anziehungskräfte der Gruppe und des Ziels und die Abstoßung der Wände und Hindernisse liefert die Trajektorien für alle Fußgänger, die automatisch bewertet werden, ob sie mit der Realität mehr oder weniger gut übereinstimmen. Dafür musste er möglichst objektive Regeln aufstellen und diese dann überprüfen. Prototypisch wurden von ihm folgende Kriterien ausgewählt: Zeitbedarf für die Gruppe, räumliche Nähe der Gruppe über möglichst lange Zeit, Simulation läuft einwandfrei durch (also niemand läuft in eine Wand), Personen kommen sich nicht zu nah (so dass sie sich durchdringen müssten), es gibt keine Vollblockade. Die zugehörigen Bewertungsfunktionen wurden je auf Werte zwischen 0 und 1 normiert und anschließend entweder arithmetisch gemittelt oder für notwendige Bedingungen multipliziert. Die Ergebnisse erwiesen sich als noch nicht sehr aussagekräfitg. Als großes Problem stellte sich nämlich heraus, dass die Zeitdiskretisierung für die Gruppensimulationen unbedingt feiner gewählt werden muss als es in der herkömmlichen Fußgängersimulation üblich ist, da in nur einem Zeitschritt oft ein "in die Wand laufen" unausweichlich ist, wenn die Abstoßungskräfte zwischen Personen realistisch gewählt werden. Ein Gewinn ist darüber hinaus die formalisierte und objektifizierte Schnittstelle zur Evaluation von Gruppenmodellen, mit denen in Zukunft weiter in diesem Bereich geforscht werden kann. Literatur und weiterführende Informationen C. Burstedde e.a.: Simulation of pedestrian dynamics using a two-dimensional cellular automaton, Physica A: Statistical Mechanics and its Applications 295 3–4, 507–525, 2001. Independent: Hajj stampede: History of disasters a ecting annual Islamic event in Mecca, 2015. F. Qiu und X. Hu: Modeling group structures in pedestrian crowd simulation. In: Simulation Modelling Practice and Theory 18.2, S. 190–205, 2010. M. Moussaïd u. a.:The Walking Behaviour of Pedestrian Social Groups and Its Impact on Crowd Dynamics. In: PLoS ONE 5.4 (Apr. 2010), e10047, 2010. G. Köster u. a.: Pedestrian and Evacuation Dynamics 2012. In: Hrsg. von U. Weidmann, U. Kirsch und M. Schreckenberg. Springer International Publishing. Kap. Validation of Crowd Models Including Social Groups, S. 1051–1063, 2014. Podcasts T. Kretz: Fußgängermodelle, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 90, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. H. Benner: Fußgänger, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
2/9/2017 • 32 minutes, 38 seconds
Akkumulatoren
Markus Maier hat 2016 in der Arbeitsgruppe des Instituts für Angewandte und Numerische Mathematik am KIT promoviert, in der auch Gudrun arbeitet. Sein Thema war The Mathematical Analysis of a Micro Scale Model for Lithium-Ion Batteries. Wie der Name der Arbeit suggeriert, betrachtet er Modelle für Lithium-Ionen-Akkumulatoren (die englische Übersetzung ist für uns Deutsche etwas irreführend Batteries), die auf mikroskopischer Ebene die Stromabgabe über die elektrochemischen Eigenschaften vorhersagen können. Ausgangspunkt des Themas war der Wunsch Degradationsmechanismen - also die Alterung der Akkus - besser zu verstehen. Das Thema Strom speichern ist sehr wichtig und wird in Zukunft noch wichtiger werden. Simulationen sind hier nötig, da jedwedes Messen auf der Mikroskala unmöglich ist - es geht um Objekte von der Größe einiger Mikrometer. Das Ausweichen auf die besser durch Messungen begleitbare makroskopische Ebene im Modell ist nicht möglich, weil man nur auf der Ebene der Ionen die Abläufe nachbilden kann, die zur Alterung führen. Ein Beispiel für so einen Prozess ist, dass die Lithium Ionen nach der Wanderung durch das Elektrolyt in der Kathode auf Platzproblem treffen, die dazu führen können, dass die Katode beschädigt wird, wenn sich die Ionen den nötigen Platz verschaffen. Diese Beschädigungen führen zu Reduzierung der Kapazität. Leider ist die modellhafte Auflösung der ganzen Mikrostruktur einer Batterie numerisch noch unmöglich - weshalb die Untersuchung der Arbeit im Moment nur lokale Ergebnisse enthält. Die kristalline Struktur in der Kathode kann es auch ermöglichen, dass sich eine zweite Phase bildet, in der sich mehr Lithium-Partikel anlagern als ursprünglich Platz in der Kathode ist. Das führt auf ein 2-Phasen-Problem mit einem Phasenübergang. Der Rand zwischen den Phasen ist dann Teil der gesuchten Lösung des Problems. Dieser Teil ist im Moment noch nicht im Modell enthalten. Schließlich hat sich Markus darauf konzentriert, ein Kompromiss-Modell der Ingenieure zu untersuchen, das im Wesentlichen auf Erhaltungseigenschaften beruht. Es hat die Form eines Systems von zwei gekoppelten partiellen Differentialgleichungen für das elektrische Potential und die Lithium-Ionen-Verteilung, welche in den zwei aneinander grenzenden Gebieten gelten. Am Grenzübergang zwischen Elekrolyt und Lithium-Partikeln gilt eine nichtlinearen Gleichung. Die erste Frage ist: Wie sichert man die Existenz und Eindeutigkeit der Lösung? Die Struktur des Beweises erweist sich als hilfreich für das anschließend gewählte numerische Verfahren. Es nutzt die Monotonie des elektrischen Potentials aus. Die Argumente gelten allerdings nur für ein klein genug gewähltes Zeitintervall, weil ein konstanter Strom als Entaldungs-Randbedingung gewählt wurde (nur für kurze Zeiten realistisch). Für Modelle, die Degradation simulieren können, wären andere Randbedingungen nötig wie beispielsweise ein konstanter Widerstand. Ein Masterstudent hat mit dem Open Source Finite-Elemente-Solver deal.II das vorgeschlagene Verfahren im Rahmen seiner Abschlussarbeit programmiert und nachgewiesen, dass es funktioniert und die Resultate überzeugen können. Literatur und weiterführende Informationen A. Latz & J. Zausch: Thermodynamic consistent transport theory of Li-ion batteries, Journal of Power Sources 196 3296--3302, 2011. T. Seger: Elliptic-Parabolic Systems with Applications to Lithium-Ion Battery Models, Doktorarbeit Universität Konstanz, 2013. M. Kespe & H. Nirschl: Numerical simulation of lithium-ion battery performance considering electrode microstructure, International Journal of Energy Research 39 2062-2074, 2015. J.-M. Tarascon & M. Armand: Issues and challenges facing rechargeable lithium batteries, Nature 414 359-367, 2001. Podcasts A. Jossen: Batterien, Gespräch mit Markus Völter im Omega Tau Podcast, Folge 222, 2016. J. Holthaus: Batterien für morgen und übermorgen, KIT.Audio Podcast, Folge 2, 2016. D. Breitenbach, U. Gebhardt, S. Gaedtke: Elektrochemie, Laser, Radio, Proton Podcast, Folge 15, 2016.
2/2/2017 • 53 minutes, 56 seconds
Finite Volumen
Das Gespräch mit Susanne Höllbacher von der Simulationsgruppe an der Frankfurter Goethe-Universität war ein Novum in unserer Podcastgeschichte. Das erste mal hatte sich eine Hörerin gemeldet, die unser Interesse an Partikeln in Strömungen teilte, was sofort den Impuls in Gudrun auslöste, sie zu einem Podcastgespräch zu diesem Thema einzuladen. Susanne hat in der Arbeitsgruppe von Gabriel Wittum in Frankfurt promoviert. Dort werden Finite-Volumen-Verfahren zur Lösung von Partiellen Differentialgleichungen benutzt. Das Verfahren betrifft hier insbesondere die räumliche Diskretisierung: Das Rechengebiet wird in Kontrollvolumen aufgeteilt, in denen durch das Verfahren sichergestellt wird, dass bestimmte Größen erhalten bleiben (z.B. die Masse). Diese Verfahren stammen aus dem Umfeld hyperbolischer Probleme, die vor allem als Erhaltungsgesetze modelliert sind. Diese Gleichungen haben die Eigenschaft, dass Fehler nicht automatisch geglättet werden und abklingen sondern potentiell aufgeschaukelt werden können. Trotzdem ist es möglich, diese numerischen Verfahren ähnlich wie Finite-Elemente-Verfahren als Variationsprobleme zu formulieren und die beiden Familien in der Analyse etwas näher zusammenrücken zu lassen. Gemeinsam ist ihnen ja ohnehin, dass sie auf große Gleichungssysteme führen, die anschließend gelöst werden müssen. Hier ist eine billige und doch wirkungsvolle Vorkonditionierung entscheidend für die Effizienz und sogar dafür, ob die Lösungen durch das numerische Verfahren überhaupt gefunden werden. Hier hilft es, schon auf Modell-Ebene die Eigenschaften des diskreten Systems zu berücksichtigen, da ein konsistentes Modell bereits als guter Vorkonditionierer fungiert. Das Promotionsprojekt von Susanne war es, eine Methode zur direkten numerischen Simulation (DNS) von Partikeln in Fluiden auf Basis eines finite Volumen-Verfahrens zu entwickeln. Eine grundsätzliche Frage ist dabei, wie man die Partikel darstellen möchte und kann, die ja winzige Festkörper sind und sich anders als die Strömung verhalten. Sie folgen anderen physikalischen Gesetzen und man ist geneigt, sie als Kräfte in die Strömung zu integrieren. Susanne hat die Partikel jedoch als Teil des Fluides modelliert, indem die Partikel als finite (und nicht infinitesimal kleine) Volumen mit zusätzlicher Rotation als Freiheitsgrad in die diskreten Gleichungen integriert werden. Damit fügen sich die Modelle für die Partikel natürlich und konsistent in das diskrete System für die Strömung ein. Vorhandene Symmetrien bleiben erhalten und ebenso die Kopplung der Kräfte zwischen Fluid und Partikel ist gewährleistet. Die Nebenbedingungen an das System werden so formuliert, dass eine Sattelpunkt-Formulierung vermieden wird. Die grundlegende Strategie dabei ist, die externen Kräfte, welche bedingt durch die Partikel und deren Ränder wirken, direkt in die Funktionenräume des zugrundeliegenden Operators zu integrieren. In biologischen Systemen mit hoher Viskotität des Fluides fungiert die Wirkung der Partikel auf das Fluid als Informationstransport zwischen den Partikeln und ist sehr wichtig. In der Umsetzung dieser Idee verhielten sich die Simulationen des Geschwindigkeitsfeldes sehr gutartig, aber Susanne beobachtete Oszillationen im Druck. Da sie sich nicht physikalisch erklären ließen, musste es sich um numerische Artekfakte handeln. Bei näherem Hinsehen zeigte sich, dass es vor allem daran lag, dass die Richtungen von Kraftwirkungen auf dem Rand der Partikel im diskreten System nicht sinnvoll approximiert wurden. In den berechneten Lösungen für das Geschwindigkeitsfeld hat sich dies kaum messbar niedergeschlagen. Im Druck zeigte sich jedoch, dass es sich lohnt, hier das numerische Verfahren zu ändern, so dass die Normalenrichtungen auf dem Rand jeweils korrekt sind. Mathematisch heißt das, dass die Ansatzfunktionen so geändert werden, dass deren Freiheitsgrade auf dem Rand liegen. Der Aufwand dafür ist vergleichsweise gering und die Resultate sind überzeugend. Die Oszillationen verschwinden komplett. Der Nachweis der Stabilität des entstehenden Gleichungssystems lässt sich über die inf-sup-Bedingung des orginalen Verfahrens erbringen, da die Konstruktion den Raum in der passenden Weise erweitert. Literatur und weiterführende Informationen S. V. Apte, M. Martin, N. A. Patankar: A numerical method for fully resolved simulation (FRS) of rigid particle–flow interactions in complex flows, Journal of Computational Physics 228, S. 2712–2738, 2009. R. E. Bank, D. J. Rose: Some Error Estimates for the Box Method, SIAM Journal on Numerical Analysis 24, S. 777–787, 1987. Glowinski, R.: Finite element methods for incompressible viscous flow, P. G. Ciarlet, J. L. Lions (Eds.), Handbook of Numerical Analysis IX (North-Holland, Amsterdam), S. 3–1176, 2003. Strang, G.: Wissenschaftlisches Rechnen, Springer-Verlag Berlin Heidelberg, 2010. A. Vogel, S. Reiter, M. Rupp, A. Naegel, G. Wittum: UG 4: A novel flexible software system for simulating PDE based models on high performance computers, Computing and Visualization in Science 16, S. 165–179, 2013. G. J. Wagner, N. Moes, W. K. Liu, T. Belytschko: The extended finite element method for rigid particles in Stokes flow, International Journal for Numerical Methods in Engineering 51, S. 293–313, 2001. D. Wan, S. Turek: Fictitious boundary and moving mesh methods for the numerical simulation of rigid particulate flows, Journal of Computational Physics 222, S. 28–56, 2007. P. Wessling: Principles of Computational Fluid Dynamics, Springer, Series in Computational Mathematics, 2001. J. Xu, Q. Zou: Analysis of linear and quadratic simplicial finite volume methods for elliptic equations, Numerische Mathematik 111, S. 469–492, 2009. X. Ye: On the Relationship Between Finite Volume and Finite Element Methods Applied to the Stokes Equations, Numerical Methods for Partial Differential Equations 17, S. 440–453, 2001. Podcasts T. Henn: Partikelströmungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 115, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/partikelstroemungen L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/filters L. Adlung: Systembiologie, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 39, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/systembiologie
1/26/2017 • 46 minutes, 36 seconds
Rage of the Blackboard
Constanza Rojas-Molina is a postdoc at the Institute of Applied Mathematics of the University of Bonn. Gudrun Thäter met her in Bonn to talk about Constanza's blog The Rage of the Blackboard. The blog’s title makes reference to an angry blackboard, but also to the RAGE Theorem, named after the mathematical physicists D. Ruelle, W. Amrein, V. Georgescu, and V. Enss." Standing at a blackboard can be intimidating and quite a few might remember moments of anxiety when being asked to develop an idea in front of others at the blackboard. But as teachers and scientists we work with the blackboard on a daily basis and find a way to "tame" its "rage". Gudrun and Constanza share that they are working in fields of mathematics strongly intertwined with physics. While Gudrun is interested in Mathematical Fluid dynamics, Constanza's field is Mathematical physics. Results in both fields very much rely on understanding the spectrum of linear (or linearized) operators. In the finite-dimensional case this means to study the eigenvalues of a matrix. They contain the essence of the action of the operator - represented by different matrices in differing coordinate systems. As women in academia and as female mathematicians Gudrun and Constanza share the experience that finding the essence of their actions in science and defining the goals worth to pursue are tasks as challenging as pushing science itself, since most traditional coordinate systems were made by male colleagues and do not work in the same way for women as for men. This is true even when raising own children does not enter the equation. For that Constanza started to reach out to women in her field to speak about their mathematical results as well as their experiences. Her idea was to share the main findings in her blog with an article and her drawings. When reaching out to a colleague she sends a document explaining the goal of the project and her questions in advance. Constanza prepares for the personal conversation by reading up about the mathematical results. But at the same moment she is interested in questions like: how do you work, how do you come up with ideas, what do you do on a regular day, etc. The general theme of all conversations is that a regular day does not exist when working at university. It seems that the only recurring task is daily improvisation on any schedule made in advance. One has to optimize how to live with the peculiar situation being pushed to handle several important tasks at once at almost any moment and needs techniques to find compromise and balance. An important question then is: how to stay productive and satisfied under these conditions, how to manage to stay in academia and what personal meaning does the word success then take. In order to distill the answers into a blog entry Constanza uses only a few quotes and sums up the conversation in a coherent text. Since she seeks out very interesting people, there is a lot of interesting material. Constanza focuses on the aspects that stay with her after a longer thought process. These ideas then mainly drive the blog article. Another part of the blog are two drawings: one portrait of the person and one which pictures the themes that were discussed and might not have made it into the text. Surprisingly it turned out to be hard to find partners to talk to, and the process to make it a blog entry takes Constanza a year or longer. On the other hand, she feels very lucky that she found women which were very generous with their time and in sharing their experiences. Besides the engagement and love for what they do, all the participants had this in common: they were already promoting the participation of women in science. To learn from them as a younger researcher means, for example, to see the own impact on students and that building a community is very important, and a success in its own. Though Constanza invests a lot of time in the blog project, it is worth the effort since it helps her to work towards a future either in or outside academia. Gudrun and Constanza found out that though both of their projects explore mathematical themes as well as people working in mathematics, the written parts of blog and podcast differ in that what makes it into the notes in Constanza's blog is, so to say, bonus material available only for the listening audience in Gudruns podcast (since it is never in the shownotes). In that sense, Gudrun's podcast and Constanza's blog are complementary views on the life of researchers. Constanza did her undergraduate studies in La Serena in Chile. She started out with studying physics but soon switched to mathematics in order to understand the basics of physics. When she had almost finished her Masters program in La Serena she wanted to continue in science abroad. She was admitted to a french (one year) Master program at the University Paris 6 and later did her PhD in the nearby University Cergy-Pontoise. After that she applied for a Marie-Curie fellowship in order to continue her research in Germany. She spent time as postdoc at the Mittag-Leffler-Institut in Stockholm and at CAMTP in Maribor (Slovenia) before moving to the LMU Munich for two years with the fellowship. After that she got the position in Bonn and is now preparing for her next step. Gudrun and Constanza want to thank Tobias Ried who put them in contact. References and further reading Women in Math statement Constanza Rojas-Molina: Etude mathématique des propriétés de transport des opérateurs de Schrödinger aléatoires avec structure quasi-cristalline (The mathematical study of electronic transport in random Schrödinger operators with quasicrystalline structures). PhD-thesis Université de Cergy-Pontoise, 2012. A. Pohl: Quantenchaos, Conversation with G. Thäter in the Modellansatz Podcast, Episode 79, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/quantenchaos Constanza's illustration blog
1/19/2017 • 42 minutes, 21 seconds
Fraktale Geometrie
Steffen Winter befasst sich mit fraktaler Geometrie, also mit Mengen, deren Dimension nicht ganzahllig ist. Einen intuitiven Zugang zum Konzept der Dimension bieten Skalierungseigenschaften. Ein einfaches Beispiel, wie das funktioniert, ist das folgende: Wenn man die Seiten eines Würfels halbiert, reduziert sich das Volumen auf ein Achtel (ein Halb hoch 3). Bei einem Quadrat führt die Halbierung der Seitenlänge zu einem Viertel (ein Halb hoch 2) des ursprünglichen Flächeninhalts und die Halbierung einer Strecke führt offenbar auf eine halb so lange Strecke (ein Halb hoch 1). Hier sieht man sehr schnell, dass die uns vertraute Dimension, nämlich 3 für den Würfel (und andere Körper), 2 für das Quadrat (und andere Flächen) und 1 für Strecken (und z.B. Kurven) in die Skalierung des zugehörigen Maßes als Potenz eingeht. Mengen, bei denen diese Potenz nicht ganzzahlig ist, ergeben sich recht ästhetisch und intuitiv, wenn man mit selbstähnlichen Konstruktionen arbeitet. Ein Beispiel ist der Sierpinski-Teppich. Er entsteht in einem iterativen Prozess des fortgesetzten Ausschneidens aus einem Quadrat, hat aber selbst den Flächeninhalt 0. Hier erkennt man durch die Konstruktion, dass die Skalierung ln 8/ln 3 ist, also kein ganzzahliger Wert sondern eine Zahl echt zwischen 1 und 2. Tatsächlich sind das Messen von Längen, Flächen und Volumina schon sehr alte und insofern klassische Probleme und auch die Defizite der beispielsweise in der Schule vermittelten Formeln beim Versuch, sie für Mengen wie den Sierpinski-Teppich anzuwenden, werden schon seit etwa 100 Jahren mit verschiedenen angepassten Maß- und Dimensionskonzepten behoben. Ein Dimensionsbegriff, der ganz ohne die Hilfe der Selbstähnlichkeit auskommt, wurde von Felix Hausdorff vorgeschlagen und heißt deshalb heute Hausdorff-Dimension. Hier werden Überdeckungen der zu untersuchenden Menge mit (volldimensionalen) Kugeln mit nach oben beschränktem (aber ansonsten beliebigem) Durchmesser angeschaut. Die Durchmesser der Kugeln werden zu einer Potenz s erhoben und aufsummiert. Man sucht unter allen Überdeckungen diejenigen, bei denen sich so die kleinste Durchmessersumme ergibt. Nun lässt man den maximal zulässigen Durchmesser immer kleiner werden. Die Hausdorff-Dimension ergibt sich als die kleinstmögliche Potenz s, für die diese minimalen Durchmessersummen gerade noch endlich bleiben. Ein verwandter aber nicht identischer Dimensionsbegriff ist die sogenannte Box-Dimension. Für hinreichend gutartige Mengen stimmen Hausdorff- und Box-Dimension überein, aber man kann zum Beispiel Cantormengen konstruieren, deren Dimensionen verschieden sind. Für die Box-Dimension kann der Fall eintreten, dass die Vereinigung abzählbar vieler Mengen der Dimension 0 zu einer Menge mit Dimension echt größer als 0 führt, was im Kontext von klassischen Dimensionen (und auch für die Hausdorff-Dimension) unmöglich ist und folglich eher als Hinweis zu werten ist, mit der Box-Dimension sehr vorsichtig zu arbeiten. Tatsächlich gibt es weitere Konzepte fraktale Dimensionen zu definieren. Interessant ist der Fakt, dass erst der Physiker und Mathematiker Benoit Mandelbrot seit Ende der 1960er Jahre eine intensivere Beschäftigung mit solchen Konzepten angestoßen hat. Er hatte in vielen physikalischen Phänomenen das Prinzip der Selbstähnlichkeit beobachtet - etwa dass sich Strukturen auf verschiedenen Größenskalen wiederholen. Wenn man z.B. ein Foto von einem Felsen macht und dazu keine Skala weiß, kann man nicht sagen, ob es sich um einen Stein, einen Ausschnitt aus einem mikroskopischen Bild oder um ein Kletterfelsen von 500m Höhe oder mehr handelt. Durch den Einzug von Computern an jedem Arbeitsplatz und später auch in jedem Haushalt (und den Kinderzimmern) wurde die Visualisierung solcher Mengen für jeden und jede sehr einfach möglich und führte zu einem regelrechten populärwissenschaftlichen Boom des Themas Fraktale. Schwierige offene Fragen im Kontext solcher fraktalen Mengen sind z.B., wie man Begriffe wie Oberflächeninhalt oder Krümmung sinnvoll auf fraktale Strukturen überträgt und dort nutzt, oder wie die Wärmeausbreitung und die elektrische Leitfähigkeit in solchen fraktalen Objekten beschrieben werden kann. Literatur und weiterführende Informationen B. Mandelbrot: Die fraktale Geometrie der Natur, Springer-Verlag, 2013. S. Winter: Curvature measures and fractals, Diss. Math. 453, 1-66, 2008. K. Falconer: Fractal geometry, mathematical foundations and applications, John Wiley & Sons, 2004. Podcasts P. Kraft: Julia Sets, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 119, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/julia-sets
1/5/2017 • 1 hour, 4 minutes, 31 seconds
Julia Sets
Pascal Kraft is a researcher at the Institute for Applied and Numerical Mathematics of the Karlsruhe Institute of Technology (KIT) and he introduces us to Julia Sets which he investigated for his Bachelors Thesis. It is natural for us to think something like this: If I take two simple things and put them together in some sense, nothing too complex should arise from that. A fascinating result of the work of mathematicians like Gaston Julia and Benoît Mandelbrot dating back to the first half of the 20th century show that this assumption doesn't always hold. In his bachelor's thesis under supervision of Jan-Philipp Weiß, Pascal Kraft worked on the efficient computation of Julia Sets. In laymans terms you can describe these sets as follows: Some electronic calculators have the functions of repeating the last action if you press "=" or "enter" multiple times. So if you used the root function of your calculator on a number and now you want the root of the result you simply press "=" again. Now imagine you had a function on your calculater that didn't only square the input but also added a certain value - say 0.5. Then you put in a number, apply this function and keep repeating it over and over again. Now you ask yourself if you keep pressing the "="-button if the result keeps on growing and tends to infinity or if it stays below some threshold indefinitely. Using real numbers this concept is somewhat boring but if we use complex numbers we find, that the results are astonishing. To use a more precise definition: for a function , the Filled Julia Set is defined as the set of values , for whom the series stays bounded. The Julia Set is defined as the boundary of this set. A typical example for a suitable function in this context is . We now look at the complex plane where the x-axis represents the real part of a complex number and the y-axis its imaginary part. For each point on this plane having a coordinate we take the corresponding complex number and plug this value into our function and the results over and over again up to a certain degree until we see if this sequence diverges. Computing a graphical representation of such a Julia Set is a numerically costly task since we have no other way of determining its interior points other then trying out a large amount of starting points and seeing what happens after hundreds of iterations. The results, however, turn out to be surprising and worth the effort. The geometric representations - images - of filled Julia Sets turn out to be very aesthetically pleasing since they are no simple compositions of elementary shapes but rather consist of intricate shapes and patterns. The reason for these beautiful shapes lie in the nature of multiplication and addition on the complex plane: A multiplication can be a magnification and down-scaling, mirroring and rotation, whereas the complex addition is represented by a translation on the complex plane. Since the function is applied over and over again, the intrinsic features are repeated in scaled and rotated forms over and over again, and this results in a self-similarity on infinite scales. In his bachelor's thesis, Pascal focussed on the efficient computation of such sets which can mean multiple things: it can either mean that the goal was to quickly write a program which could generate an image of a Julia Set, or that a program was sought which was very fast in computing such a program. Lastly it can also mean that we want to save power and seek a program which uses computational power efficiently to compute such an image, i.e. that consumes little energy. This is a typical problem when considering a numerical approach in any application and it arises very naturally here: While the computation of Julia Sets can greatly benefit from parallelization, the benefits are at loss when many tasks are waiting for one calculation and therefore the speedup and computational efficiency breaks down due to Amdahl's law. The difference of these optimization criteria becomes especially obvious when we want to do further research ontop of our problem solver that we have used so far. The Mandelbrot Set for example is the set of values , for whom the Filled Julia Set is not equal to the Julia Set (i.e. the Filled Julia Set has interior points). One detail is important for the computation of either of these sets: If we check one single point we can never really say if it is inside the Filled Julia Set for sure (unless we can prove periodicity but that is not really feasible). What we can show however is, that if the magnitude of a point in the series of computations is above a certain bound, the results will tend to infinity from this point on. The approach is therefore to compute steps until either a maximum of steps is reached or a certain threshold is exceeded. Based on this assumption, we see that computing a point which lies inside the filled Julia Set is the bigger effort. So if computing a Julia Set for a given parameter is a lot of work, its complex parameter most likely lies inside the Mandelbrot Set (as we find many points for whom the computation doesn't abort prematurely and it is therefore likely that some of these points will be interior). If we want to draw the Mandelbrot Set based on this approach, we have to compute thousands of Julia Sets and if the computation of a single image was to take a minute this would not really be feasible anymore. Since the computation of a Julia Set can even be done in a webbrowser these days, we include below a little tool which lets you set a complex parameter and compute four different Julia Sets. Have fun with our Interactive Julia Sets! References and further reading J. Dufner, A. Roser, F. Unseld: Fraktale und Julia-Mengen, Harri Deutsch Verlag, 1998. H.-O. Peitgen, P. H. Richter: The beauty of fractals: images of complex dynamical systems, Springer Berlin Heidelberg, 1986. B. B. Mandelbrot: Fractal aspects of the iteration of for complex and z, Annals of the New York Academy of Sciences 357.1: 249-259, 1980. P. Kraft: Paralleles Rechnen auf GPUs - Julia Mengen und das magnetische Pendel Fraktal, Bachelor Thesis. 2012. J. Gaston: Mémoire sur l’itération des fonctions rationnelles, Journal de Math´ematiques pures et appliqu ´ees 4 (Rep 1968), pp. 47-245 / 121-319, 1918. P. Blanchard: Complex analytical dynamics on the Riemann sphere, Bulletin of the American Mathematical Society 11, pp. 84-141, 1984.
12/22/2016 • 58 minutes, 9 seconds
Minimalflächen
Lorenz Schwachhöfer ist seit 2003 Professor für Mathematik an der TU Dortmund. Gudrun kennt ihn aus ihrer Zeit als als Hochuldozentin dort (2004-2008). Seinen kurzen Gastaufenthalt in der AG von Prof. Tuschmann in Karlsruhe wollten die beiden ausnutzen, um ein Podcast-Gespräch zu führen. Das Forschungsgebiet von Lorenz Schwachhöfer gehört zur Differentialgeometrie. Deshalb dreht sich ihr Gespräch um zentrale Begriffe in diesem mathematischen Gebiet zwischen Geometrie und Analysis: Die Krümmung und das Finden von Minimalflächen. Der Begriff Krümmung kommt in unserer Alltagssprache vor. Die Mathematik muss das Konzept von "gekrümmt sein" nur klar fassen, um damit präzise arbeiten zu können. Die zentrale Eigenschaft, die durch das Wort beschrieben wird, ist wie sehr sich eine Fläche von einer Ebene unterscheidet. Oder auch wie stark sich eine Kurve von einer Geraden unterscheidet. Eine Ebene (bzw.eine Gerade) ist nicht gekrümmt. Mathematisch ausgedrückt haben sie deshalb die Krümmung 0. Wenn man nun untersuchen - und mit einer Zahl ausdrücken - möchte, wie sehr sich z.B. eine Kurve in jedem Punkt von eine Gerade unterscheidet, verwendet man folgenden Trick: Man definiert einen Parameter - z.B. die Bogenlänge - und stellt die Kurve als Funktion dieses Parameters dar. Dann berechnet man die Änderung des Richtungsvektors der Kurve in jedem Punkt. D.h. man braucht die zweite Ableitung nach dem Parameter in dem Punkt. Das Ergebnis für einen Kreis mit Radius r lautet dann: Er hat überall die Krümmung 1/r. Daran sieht man auch, dass kleine Kreise sehr stark gekrümmt sind während sehr große Kreise eine so kleine Krümmung haben, dass man sie fast nicht von einer Geraden unterscheiden kann. Auch die Erdoberfläche wirkt lokal wie eine Ebene, denn in der mit unseren Augen wahrgenommenen Umgebung ist ihre Krümmung klein. Was für Kurven recht anschaulich zu definieren geht, ist für Flächen im dreidimensionalen Raum nicht ganz so klar. Das einzig klare ist, dass für jede Art Krümmung, die man mathematisch definiert, jede Ebene in jedem Punkt die Krümmung 0 haben muss. Wenn man die Idee der Parametrisierung auf Flächen überträgt, geht das im Prinzip auch, wenn man zwei Parameter einführt und Krümmung auf eine bestimmte Richtung im Punkt auf der Fläche entlang bezieht. Beim Zylinder kann man sich gut vorstellen, wie das Ergebnis aussieht: Es gibt die Richtung entlang der Kreislinie des Querschnitts. Diese Kurve ist ein Kreis und hat die Krümmung 1/r. Läuft man dazu im rechten Winkel auf der Zylinderhülle, folgt man einer Gerade (d.h. Krümmung in diese Richtung ist 0). Alle anderen Wege auf der Zylinderoberfläche liegen in Bezug auf die Krümmung zwischen diesen beiden Werten 1/r und 0. Tatsächlich kann man auch für allgemeine Flächen zeigen, dass man in jedem Punkt eine Zerlegung in zwei solche "Haupt"-Richtungen findet, für die maximale bzw. minimale Krümmungswerte gelten (und die senkrecht zueinander sind). Alle anderen Richtungen lassen sich daraus linear zusammensetzen. Die Kugeloberfläche hat z.B. eine hohe Symmetrie und verhält sich in allen Richtungen gleich. Alle Wege auf der Kugeloberfläche sind lokal Teile von Kreisen. Man kann sich hier auch überlegen, was tangential bedeutet, indem man in einem Punkt auf der Oberfläche eine Ebene anschmiegt. Die Richtung senkrecht auf dieser tangentialen Ebene ist die Normalenrichtung auf dem Punkt der Kugeloberfläche an dem die Tangentialebene anliegt. Tatsächlich gibt es für Flächen aber mehr als einen sinnvollen Krümmungsbegriff. Man kann z.B. einen Zylinder sehr schön in Papier "einwickeln". Bei einer Kugel geht das nicht - es bleibt immer Papier übrig, das man wegfalten muss. Wenn man einen Kühlturm einpacken möchte, reicht das Papier nicht für die nach innen einbuchtende Oberfläche. Die Eigenschaft, die wir mir dem Einwickeln veranschaulicht haben, wird mit dem Begriff der Gaußkrümmung ausgedrückt. Um sie zu berechnen, kann man in einem Punkt die oben definierten Richtungsskrümmungen anschauen. Maximal- und Minimalwerte werden für senkrecht aufeinander stehende Richtungen realisiert. Das Produkt der beiden extremen Krümmungen ergibt dann die Gaußkrümmung. In unserem Beispiel mit dem Zylinder ist die Gaußkrümmung also 0 mal 1/r = 0. Das ist aber tatsächlich ganz unabhängig von der Richtungskrümmung untersuchbar, weil es sich durch Längen- bzw. Flächenverhältnisse in der Fläche bestimmen lässt. Genauer gesagt: Wenn man auf der Kugel um einen Punkt einen Kreis auf der Kugeloberfläche zieht (d.h. seine Punkte liegen auf der Kugeloberfläche und haben alle den Abstand r vom gewählten Punkt), hat dieses Objekt einen kleineren Flächeninhalt als ein ebener Kreis mit dem gleichen Radius. Deshalb sagt man: Die Kugel hat positive Gaußkrümmung. Bei negativer Gaußkrümmung ist der Flächeninhalt auf der Oberfläche größer als in der Ebene. Das trifft für den Kühlturm zu. Diese Eigenschaft lässt sich innerhalb der Fläche untersuchen. Man braucht gar keine Einbettung in einen umgebenden Raum. Das ist zunächst sehr überraschend. Es ist aber unbedingt nötig für Anwendungen in der Astrophysik, wo die Raumzeit wegen der Gravitation gekrümmt ist (d.h. sie ist kein euklidischer Raum). Es hat aber niemand ein Bild, in welche höhere Dimension man die Raumzeit einbetten sollte, um dann mit der Krümmung in Bezug auf diesen Raum zu arbeiten. Neben den beiden schon diskutierten Begriffen kann man auch mit der mittleren Krümmung arbeiten. Sie ist definiert als Mittelwert aller Richtungskrümmungen. Man kannn aber zeigen, dass dies stets das arithmetische Mittel zwischen minimaler und maximaler Krümmung ist. Dies hat auch eine physikalische Interpretation - z.B. als Flächenspannung für eine Membran, die eingespannt ist. Die Membran versucht, einen möglichst geringen Flächeninhalt - eine sogenannte Minimalfläche - zu realisieren, weil dies dem minimalen Energieaufwand entspricht. Spannungsfreie Flächen sind sehr stabil und deshalb für Architekten interessant. Im Schülerlabor Mathematik kann man mit Seifenhäuten selbst ausprobieren, welche Flächen sich hier für unterschiedliche Randkurven herausbilden. Z.B. wurde die Dachkonstruktion des ehemaligen Olympiastadions in München aus Minimalflächen konstruiert, die mit Seifenhäuten gefunden, fotographiert und nachgebaut wurden.. Mathematisch sprechen wir vom Plateau-Problem. Die Frage ist dabei: Hat jede geschlossene Kurve mindestens eine zugehörige Minimalfläche? Heute wissen wir, dass die Antwort - unter sehr geringen Regularitätsforderungen an die Kurve - fast immer ja ist. Sehr verblüffendend ist in diesem Zusammenhang auch der Satz von Gauß/Bonnet. Er sagt, dass das Integral über die Gaußkrümmung jeder in sich selbst geschlossenen Fläche ein ganzzahliges Vielfaches von 2π ist. Dieser Faktor heißt dann Euler-Charakteristik und hängt nur von der Topologie (grob gesprochen der Zahl der Löcher im Gebiet) ab. Beim Torus ist sie 0 und für die Kugeloberfläche 2. Interessant ist in diesem Zusammenhang auch die Behandlung von nicht glatten Kurven bzw. Flächen mit Ecken und Kanten. An den Kanten ist das Konzept der Gaußkrümmung noch recht einfach übertragbar. Der betrachtete Kreis auf der Oberfläche klappt sich dabei um die Kante herum. An den Ecken geht das nicht so einfach, sondern führt auf komplexere Gebilde. Wenn man sich aber z.B. einen Würfel ansieht, hat dieser fast überall die Krümmung 0. Trotzdem ist er (topologisch gesehen) einer Kugel viel ähnlicher als einer Ebene. Hier kann man den Begriff der Gaußkrümmung richtig für Polyeder mit Kanten und Ecken verallgemeinern und der Satz von Gauß/Bonnet überträgt sich sinngemäß auf Polyeder. Das Integral wird zur Summe über die Polyederflächen und wir erhalten den wohlbekannten Polyedersatz: Euler-Charakteristik mal Anzahl der Flächen - Anzahl der Kanten + Anzahl der Ecken = 2 Der Polyedersatz ist eigentlich ein kombinatorisches Ergebnis. Trotzdem zeigt sich hier, dass die topologischen Eigenschaften intrinsisch mit der Krümmung zusammenhängen, was sehr überraschend, aber auch sehr ästhetisch zwei einander sehr fremde Teilgebiete der Mathematik zusammenführt. Lorenz Schwachhöfer hat in Darmstadt und in New Orleans Mathematik studiert und nach seiner Promotion 1992 (in Philadelphia) u.a. wissenschaftlich Station gemacht an der Washington Universität (in St. Louis), dem Max Planck Institut für Mathematik in Bonn, der Universität in Leipzig (dort Habilitation) und an der Université Libre in Brüssel. Literatur und weiterführende Informationen J-H. Eschenburg & J. Jost: Differentialgeometrie und Minimalflächen. Springer Verlag, 3. Auflage, 2014. T. Matiasek: Seifenhäute und Minimalflächen: Natur, Geometrie und Architektur. VDM Verlag Dr. Müller, 2010 Wolfgang Kühnel: Differentialgeometrie: Kurven - Flächen - Mannigfaltigkeiten, Springer Verlag, 2013. Manfredo doCarmo, Differentialgeometrie von Kurven und Flächen, Vieweg+Teubner Verlag, 1993. Christian Bär, Elementare Differentialgeometrie, deGruyter, 2017. Video Seifenhäute (engl.) Podcasts P. Schwer: Metrische Geometrie. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 102, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/metrische-geometrie L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe
12/15/2016 • 58 minutes, 50 seconds
Vier Farben
Torsten Ueckerdt arbeitet seit 2012 in der Arbeitsgruppe Diskrete Mathematik an unserer Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT). Er hat an der TU Berlin Mathematik studiert und promoviert. Anschließend forschte er für einige Zeit in Prag mit Jan Kratochvil. Er arbeitet unter anderem mit geometrischen Graphen. Graphen sind allgegenwärtige Modelle in vielen und sehr unterschiedlichen Anwendungen. Im jedem Fall bestehen sie aus Knoten und Kanten (zwischen den Knoten). Ein Beispiel für einen geometrischen Graphen, auf das wir im Gespräch mehrfach zurückkommen, ist die folgende Reduktion von Landkarten: Knoten stehen für die Länder und Kanten zwischen zwei Knoten symbolisieren eine gemeinsame Grenze der Länder. Damit ist der Graph eine abstrakte aber dabei auch sehr klare Fassung der nachbarschaftlichen Lage der Länder in der Landkarte. Das heißt, dass für die Darstellung im Graphen die meiste geometrische Information der Landkarte aussortiert wird. Andere Beispiele für geometrische Graphen sind Sichtbarkeitsgraphen, geometrische Vergleichbarkeits- und Schnittgraphen (z.B. Intervallgraphen), Einheitsdistanz-Graphen oder geordnete Graphen die etwa bei Schedulingproblemen eine große Rolle spielen. Wenn ein geometrisches Problem mittels eines Graphen abstrahiert wird, kann das immense Vorteile bringen. Zum Beispiel können so Resultate, Konzepte und Techniken für allgemeine Graphen verwendet werden. Auch das bloße "Vergessen" der geometrischen Einbettung kann die Argumentationen und Objekte erheblich vereinfachen. Andererseits ist das erstrebte Resultat für allgemeine Graphen eventuell gar nicht gültig. Eine wichtige Aufgabe ist es deshalb, eine gute Balance zu finden zwischen Abstraktion und wesentlicher geometrischer Information, die die Untersuchung beeinflusst. Interessant ist, dass bestimmte Eigenschaften des Graphen von der Geometrie "dahinter" diktiert werden. Sehr zugängliche Beispiele für die Nützlichkeit der Abstraktion durch Graphen sind das Königsberger Brückenproblem und das Springerproblem. Andere Fragen, die Torsten umtreiben sind das Färben (z.B. von Knoten oder Kanten) und Überdecken von Graphen. Einige Bekanntheit erlangte z.B. das Vier-Farben-Problem. Die Frage ist dabei, ob es für alle Landkarten möglich ist, die Länder mit vier unterschiedlichen Farben so einzufärben, dass Nachbarländer stets unterschiedliche Farben haben. Der Beweis dafür, dass dies eine wahre Aussage ist, ist inzwischen gelungen und hat zwei Hauptschritte. Im ersten Schritt werden die potentiell unendlich viele Fälle, die bei Landkarten auftreten können, auf endlich viele (leider noch sehr viele) zurückgeführt. Anschließend wird der Beweis durch Fallunterscheidungen für mehrere 1000 Fälle auf Computer ausgelagert. An diesem Beispiel zeigen sich auch deutlich einige typische Aspekte von Torstens Arbeit. Einerseits scheint es nicht sehr befriedigend, dass man auf Computer im Beweis nicht verzichten kann. Andererseits ist der schwierige Schritt eigentlich der erste und die hier entwickelte Idee ist in der Tat eine sehr allgemeine Methode, die inzwischen auch für andere Fragen immer wieder eingesetzt wurde. Sie ist also bedeutsamer als "nur" Hilfsmittel im Beweis des Vier-Farben-Satzes zu sein. Andererseits trägt die Idee zwar weit genug für das Problem, aber wahrscheinlich ist sie nicht wirklich optimal für die untersuchte Struktur, da noch zu viele Fälle zu betrachten bleiben, die dann brutal durchprobiert werden. So gibt es auch spannende Verallgemeinerungen des Vier-Farben-Problems die bis heute ungelöst sind. Beim sogenannten Earth-Moon Problem fragt man zum Beispiel was passiert wenn jedes Land der Erde zusätzlich eine Kolonie auf dem Mond errichtet und wir nun die Länder mit möglichst wenigen Farben einfärben wollen, so dass keine zwei Länder die auf der Erde oder auf dem Mond benachbart sind die gleiche Farbe erhalten. Wir wissen nur, dass die kleinste Anzahl benötigter Farben irgendwo zwischen 9 und 12 liegt. Es sind letztlich nicht die errechneten Zahlen (wie die vier im Vier-Farben-Satz) das eigentlich Interessante, sondern die für deren Bestimmung entwickelten neuen Methoden. Ein weiterer Aspekt ist die enge Verbindung von Kombinatorik und Geometrie. Die Tatsache dass in so vielen Fällen die kontinuierliche und überabzählbare Welt der Geometrie eindeutig durch die diskrete und endliche Welt der Kombinatorik beschrieben werden kann, ist faszinierend und immer wieder spannend. In der diskreten und kombinatorischen Geometrie versucht Torsten zum Einen geometrische Arrangements kombinatorisch zu beschreiben und zum Anderen kombinatorische Objekte, wie zum Beispiel Graphen, geometrisch zu realisieren. Die einfach formulierbaren Fragen in Torstens Arbeiten haben häufig schwierige Antworten bzw. entziehen sich einer Bearbeitung noch ganz. Nicht zuletzt liegt das auch daran, dass die Kombinatorik schnell mit der explodierenden Komplexität an die Wand fährt. Am Beispiel der Landkarte: Nur für zehn (oder weniger) Länder lassen sich Ideen relativ schnell (innerhalb eines Tages auf einem gängigen Computer) kombinatorisch ausprobieren - es hier genau 1.140.916 verschiedene Landkarten. Im Allgemeinen wächst die Anzahl der Landkarten allerdings exponentiell in der Anzahl der Länder - es gibt zwischen und viele Karten mit n Ländern. Die einzige realistische Möglichkeit geometrische Graphen zu untersuchen, bspw. in Hinblick auf ihre Färbungen oder Überdeckungen, besteht also in der rigorosen Analyse im wiederholten Wechsel zwischen Geometrie und Kombinatorik - eine Herausforderung die Kreativität und Kontinuität erfordert, aber viel Freude und Inspiration birgt. Literatur und weiterführende Informationen Jaroslav Nesetril: Diskrete Mathematik: Eine Entdeckungsreise, Springer-Lehrbuch, 2007. Martin Aigner: Graphentheorie: Eine Einführung aus dem 4-Farben Problem. Springer Fachmedien Wiesbaden, 2015. Michael Reeken et al: Das Königsberger Brückenproblem - Eine Handreichung für Schüler und Schülerinnen, MathePrisma, 1998. Podcasts C. Schulz: Graphpartitionierung, Gespräch mit Gudrun Thäter im Modellansatz Podcast, Folge 38, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/graphpartitionierung J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
12/8/2016 • 49 minutes, 55 seconds
Homogenization
Andrii Khrabustovskyi works at our faculty in the group Nonlinear Partial Differential Equations and is a member of the CRC Wave phenomena: analysis and numerics. He was born in Kharkiv in the Ukraine and finished his studies as well as his PhD at the Kharkiv National University and the Institute for Low Temperature Physics and Engineering of the National Academy of Sciences of Ukraine. He joined our faculty in 2012 as postdoc in the former Research Training Group 1294 Analysis, Simulation and Design of Nanotechnological Processes, which was active until 2014. Gudrun Thäter talked with him about one of his research interests Asymptotic analysis and homogenization of PDEs. Photonic crystals are periodic dielectric media in which electromagnetic waves from certain frequency ranges cannot propagate. Mathematically speaking this is due to gaps in the spectrum of the related differential operators. For that an interesting question is if there are gaps inbetween bands of the spectrum of operators related to wave propagation, especially on periodic geometries and with periodic coeffecicients in the operator. It is known that the spectrum of periodic selfadjoint operators has bandstructure. This means the spectrum is a locally finite union of compact intervals called bands. In general, the bands may overlap and the existence of gaps is therefore not guaranteed. A simple example for that is the spectrum of the Laplacian in which is the half axis . The classic approach to such problems in the whole space case is the Floquet–Bloch theory. Homogenization is a collection of mathematical tools which are applied to media with strongly inhomogeneous parameters or highly oscillating geometry. Roughly spoken the aim is to replace the complicated inhomogeneous by a simpler homogeneous medium with similar properties and characteristics. In our case we deal with PDEs with periodic coefficients in a periodic geometry which is considered to be infinite. In the limit of a characteristic small parameter going to zero it behaves like a corresponding homogeneous medium. To make this a bit more mathematically rigorous one can consider a sequence of operators with a small parameter (e.g. concerning cell size or material properties) and has to prove some properties in the limit as the parameter goes to zero. The optimal result is that it converges to some operator which is the right homogeneous one. If this limit operator has gaps in its spectrum then the gaps are present in the spectra of pre-limit operators (for small enough parameter). The advantages of the homogenization approach compared to the classical one with Floquet Bloch theory are: The knowledge of the limit operator is helpful and only available through homogenization. For finite domains Floquet Bloch does not work well. Though we always have a discrete spectrum we might want to have the gaps in fixed position independent of the size of our domain. Here the homogenization theory works in principle also for the bounded case (it is just a bit technical). An interesting geometry in this context is a domain with periodically distributed holes. The question arises: what happens if the sizes of holes and the period simultaneously go to zero? The easiest operator which we can study is the Laplace operator subject to the Dirichlet boundary conditions. There are three possible regimes: For holes of the same order as the period (even slightly smaller) the Dirichelet conditions on the boundary of holes dominate -- the solution for the corresponding Poisson equation tends to zero. For significantly smaller holes the influence on the holes is so small that the problem "forgets" about the influence of the holes as the parameter goes to zero. There is a borderline case which lies between cases 1 and 2. It represents some interesting effects and can explain the occurance of so-called strange terms. A traditional ansatz in homogenization works with the concept of so-called slow and fast variables. The name comes from the following observation. If we consider an infinite layer in cylindrical coordinates, then the variable r measures the distance from the origin when going "along the layer", the angle in that plane, and z is the variable which goes into the finite direction perpendicular to that plane. When we have functions then the derivative with respect to r changes the power to while the other derivatives leave that power unchanged. In the interesting case k is negative and the r-derivate makes it decreasing even faster. This leads to the name fast variable. The properties in this simple example translate as follows. For any function we will think of having a set of slow and fast variables (characteristic to the problem) and a small parameter eps and try to find u as where in our applications typically . One can formally sort through the -levels using the properties of the differential operator. The really hard part then is to prove that this formal result is indeed true by finding error estimates in the right (complicated) spaces. There are many more tools available like the technique of Tartar/Murat, who use a weak formulation with special test functions depending on the small parameter. The weak point of that theory is that we first have to know the resulat as the parameter goes to zero before we can to construct the test function. Also the concept of Gamma convergence or the unfolding trick of Cioranescu are helpful. An interesting and new application to the mathematical results is the construction of wave guides. The corresponding domain in which we place a waveguide is bounded in two directions and unbounded in one (e.g. an unbounded cylinder). Serguei Nazarov proposed to make holes in order to make gaps into the line of the spectrum for a specified wave guide. Andrii Khrabustovskyi suggests to distribute finitely many traps, which do not influence the essential spectrum but add eigenvalues. One interesting effect is that in this way one can find terms which are nonlocal in time or space and thus stand for memory effects of the material. References P. Exner and A. Khrabustovskyi: On the spectrum of narrow Neumann waveguide with periodically distributed δ′ traps, Journal of Physics A: Mathematical and Theoretical, 48 (31) (2015), 315301. A. Khrabustovskyi: Opening up and control of spectral gaps of the Laplacian in periodic domains, Journal of Mathematical Physics, 55 (12) (2014), 121502. A. Khrabustovskyi: Periodic elliptic operators with asymptotically preassigned spectrum, Asymptotic Analysis, 82 (1-2) (2013), 1-37. S.A. Nazarov, G. Thäter: Asymptotics at infinity of solutions to the Neumann problem in a sieve-type layer, Comptes Rendus Mecanique 331(1) (2003) 85-90. S.A. Nazarov: Asymptotic Theory of Thin Plates and Rods: Vol.1. Dimension Reduction and Integral Estimates. Nauchnaya Kniga: Novosibirsk, 2002.
12/1/2016 • 56 minutes
Partikelströmungen
Thomas Henn hat im Oktober 2016 seine Promotion zum Thema Computersimulation von Partikelströmungen abgeschlossen. Partikelströmungen treten in zahlreichen natürlichen sowie künstlichen Vorgängen auf, beispielsweise als Transport von Feinstaub in den menschlichen Atemwegen, als Bildung von Sediment in Flüssen oder als Feststoff–Fluid Gemisch bei Filtrationen. Simulationen von Partikelströmungen kommen zum Einsatz, wenn physische Untersuchungen nicht möglich sind. Darüber hinaus können sie Kosten experimenteller Studien verringern. Häufig ist das der Fall, wenn es um medizinische Anwendungen geht. Wenn man beispielsweise aus CT-Aufnahmen die genaue Geometrie des Naseninnenraums eines Patienten kennt, kann durch Simulation in dieser spezifischen Geometrie ermittelt werden, wo sich Partikel welcher Größe ablagern. Das ist in zwei Richtungen interessant: Erstens zur Vermeidung von Gesundheitsbelastungen durch Einlagerung von Partikeln in der Lunge (dort landen alle Partikel, die die Nase nicht filtern kann) aber zweitens auch bei der bestmöglichen Verabreichung von Medikamenten mittels Zerstäubung in die Nasenhöhle. Es hat sich gezeigt, dass die Simulation von Strömungen mit einer großen Zahl an beliebig geformten Partikeln den herkömmlichen numerischen Methoden insbesondere bei der Parallelisierung Probleme bereitet. Deshalb wird die Lattice Boltzmann Methode (LBM) als neues Verfahren zur numerischen Simulation von Strömungen auf Partikelströmungen angewendet. Sie hat außerdem den Vorteil, dass komplexe Geometrien wie z.B. ein Naseninnenraum keine extra zu bewältigende Schwierigkeit darstellen. Die zentrale Idee für die effektive Parallelisierung unter LBM ist eine Gebietszerlegung: Die durchströmte Geometrie wird in Zellen aufgeteilt und diese Zellen gerecht auf die zur Verfügung stehenden Prozessoren verteilt. Da die Rechnungen für die Strömungsrechnung mit LBM im wesentlichen lokal sind (es werden nur die Informationen einer Zelle und der direkten Nachbarzellen benötigt), ist das extrem effektiv. Wenn nun neben der Strömung auch noch die Bewegung der Partikel berechnet werden soll, müssen natürlich physikalische Bewegungsmodelle gefunden werden, die für die jeweilige Partikelgröße und -form passen, daraus Gleichungen und deren Diskretisierung abgeleitet werden in der Implementierung die Vorteile der LBM bei der Parallelisierung möglichst nicht zerstört werden. Offensichtlich ist es am besten, wenn die Partikel möglichst gleichmäßig über die durchströmte Geometrie verteilt sind. Aber das kann man sich ja nicht immer so aussuchen. Je nach Größe und Dichte der Partikel wird es wichtig, neben der Wirkung des Fluids auf die Partikel auch Rückwirkung des Partikels auf die Strömung, Wechselwirkung der Partikel untereinander (z.B. auch herausfinden, wann sich Partikel berühren) Wechselwirkung der Partikel mit dem Rand der Geometriezu betrachten. Als sehr hilfreich hat sich eine ganz neue Idee herausgestellt: Partikelströmungen als bewegtes poröses Medium zu modellieren. D.h. für große Partikel stellt man sich vor, sie haben einen festen Kern und außen einen glatten Übergang in der Porösität zur reinen Fluidphase. Es zeigt sich, dass man dann sogar auf ein Modell verzichten kann, das die Kontakte der Partikel modelliert, weil sich die Partikel so natürlich in der Strömung bewegen, wie man es auch im Experiment beobachtet. Alle Berechnungen müssen validiert werden, auch wenn manchmal nicht ganz klar ist, wie das erfolgen kann. Zum Glück ist hier aber die enge Zusammenarbeit mit der Verfahrenstechnik am KIT eine große Hilfe, die die Computersimulationswerkzeuge auch für ihre Projekte nutzen und weiter entwickeln. Literatur und weiterführende Informationen L.L.X. Augusto: Filters, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 112, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/filters OpenLB Open source Lattice Boltzmann Code F. Bülow: Numerical simulation of destabilizing heterogeneous suspensions at vanishing Reynolds numbers. Karlsruhe, 2015. T. Henn et al.: Particle Flow Simulations with Homogenised Lattice Boltzmann Methods. To appear in Particuology. F. Klemens: Simulation of Fluid-Particle Dynamics with a Porous Media Lattice Boltzmann Method, MA thesis. Karlsruher Institut für Technologie, 2016. E. E. Michaelides: Particles, Bubbles & Drops: Their Motion, Heat and Mass Transfer, World Scientific Publishing Company Incorporated, 2006. T.Henn: Aorta Challenge, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 2, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/aorta-challenge
11/24/2016 • 44 minutes, 45 seconds
Schaukeln
Helen hat am Karlsruher Institut für Technologie (KIT) ihren Bachelor in Mathematik abgeschlossen. Als Bachelorarbeit hatte sie sich das Thema Schaukeln gewählt unter der Betreuung von Gudrun Thäter. Es geht darin um Modelle, die tatsächlich die Schaukel vom Spielplatz untersuchen. Die zentrale Frage, die durch die Modelle und daraus abgeleitete Simulationen beantwortet werden soll ist: Wie funktioniert das Schwung geben beim schaukeln? Eine grundlegende Idee (die Helen aus der Literatur entnommen hat) ist es, die Schaukel als Fadenpendel mit veränderlicher Fadenlänge anzusehen. Das liegt daran, dass das Schwung geben sich vor allem durch die Veränderung der Lage des Schwerpunkts erklärt, die dann im Modell als veränderliche Pendellänge eingeht. Fadenlänge als Funktion in der Zeit erwies sich als nicht praktikabel deshalb ist sie in Helens Modell nun eine Funktion von der Winkelauslenkung. Das führt auf eine Differentialgleichung zweiter Ordnung für die Variable der Auslenkung. Reibungsverluste der Schaukel werden auf herkömmliche Art integriert und als proportional zur Geschwindigkeit des Massepunktes angenommen. Um realistische Parameter für Rechnungen zu gewinnen, konnten wir leider keine Experimente mit schaukelnden Kindern durchführen, sondern haben uns auf Computer-Simulation für unterschiedliche Konstellationen verlassen und Parameter für die realistisch erscheinenden Szenarien daraus entnommen. In der Arbeit enthalten sind nun neben dem theoretischen Modell auch unterschiedliche Fälle mit verschiedenen Seillängen und Personengrößen durchgerechnet und graphisch dargestellt. Zwei Ergebnisse, die man daraus ablesen kann sind, dass kürzere Schaukeln es einem leichter machen, sich aufzuschaukeln und große Leute einen Vorteil haben, weil sie ihren Schwerpunkt über eine größere Strecke verschieben können. Schließlich war es entscheidend für den Erfolg der Arbeit, sich an der richtigen Stelle Rat zu suchen. Literatur und weiterführende Informationen Physik des Aufschaukelns Anschubsen K. Magnus: Schwingungen, Teubner 1976.
11/17/2016 • 18 minutes, 24 seconds
Reguläre Strömungen
Strömungen beobachten wir fast jeden Tag. Die Meeresbrandung fasziniert uns und eine gut funktionierende Klimaanlage ist ein wunderbarer Luxus, egal ob sie wärmt oder kühlt. Strömungen zu beherrschen ist aber auch in vielen verfahrenstechnischen Zusammenhängen wichtig. Insofern haben Gleichungen, die Strömungen beschreiben, eine große praktische Relevanz und gleichzeitig eine fast emotionale Anziehungskraft. Das einfachste mathematische Modell, das auch für viele Computersimulationen genutzt wird, sind die inkompressiblen Navier-Stokes Gleichungen (INS). Hier ist die strömende Substanz dem Wasser ähnlich genug, dass nur in der Materialkonstante Viskosität verschiedene Fließfähigkeiten unterschieden werden. Als Lösungen des Systems von partiellen Differentialgleichungen suchen wir das Geschwindigkeitsfeld und den Druck als Funktionen von Raum und Zeit . Im 3d-Fall ist das ein System von vier Gleichungen. Drei davon sind eine Vektorgleichung, die aus der Impulserhaltung abgeleitet wird und die vierte ist die Erhaltung der Masse. Im inkompressiblen Fall vereinfacht sich diese aus die Forderung, dass die Divergenz des Geschwindigkeitsfeldes verschwindet. Die komplexer aussehende Gleichung ist die Vektorgleichung, weil hier die zweiten räumlichen Ableitungen des Geschwindigkeitsfeldes, der Druckgradient, die zeitliche Ableitung der Geschwindigkeit und ein nichtlinearer Term vorkommen. Die Gleichungen müssen im Strömungsgebiet gelten. Die Lösungen müssen sich aus dem Anfangszustand entwickeln (Anfangsbedingung) und am räumlichen Rand vorgeschriebenen Werten, den Randwerten (meist fordert man, dass die Geschwindigkeit Null ist) genügen. Dieses Modell ist in einem längeren Prozess entwickelt worden. Ein großer Durchbruch bei der mathematischen Analyse gelang dem französischen Mathematiker Leray im Jahr 1934. Er hatte die geniale Idee, sich von dem Wunsch zu verabschieden, für diese komplizierte Gleichung eine punktweise zutreffende Lösung zu konstruieren. Statt dessen verallgemeinerte er den Lösungsbegriff und führte den Begriff der schwachen Lösung ein. Diese erfüllt die Gleichung nur im Sinne eines ausgeklügelten Systems von unendlich vielen Integralgleichungen. Er zeigte mit Hilfe von abstrakten Argumenten, dass die INS immer solche schwachen Lösungen haben. Heute ist bekannt, dass falls eine punktweise Lösung existiert (sogenannte starke Lösung), diese eindeutig ist (also insbesondere mit der schwachen übereinstimmt), es in 2d immer eine punktweise Lösung gibt, die für alle Zeiten existiert (unter geringfügigen Bedingungen an den Rand), und es unter Kleinheitsbedingungen an die Daten und bei glattem geometrischen Rand des Gebietes auch in 3d punktweise Lösungen gibt.Wir wissen jedoch in 3d nicht, ob die gefundenen schwache Lösung regulär bzw. stark ist (d.h. eine punktweise Lösung ist.) In Vorbereitung auf den Jahrtausendwechsel gab es in der Mathematik die Bestrebung, so wie dies 100 Jahre zuvor von Hilbert geschehen war, die wichtigsten mathematischen Problemstellungen in den Fokus zu nehmen. Das Ergebnis waren sieben sogenannte Milleniumsprobleme der Clay Foundation, für deren Lösung jeweils ein Preisgeld von einer Millionen Dollar ausgelobt wurde. Eines dieser für so wichtig angesehenen Probleme ist die offene Frage der Regularität der schwachen Lösungen der INS. Woran liegt das? Eine Eigenschaft der INS, die sie schwierig macht, ist ihre Nichtlinearität. Sie ist nur quadratisch und hat eine besondere Struktur. Diese Struktur verdanken wir es z.B., dass die schwache Theorie erfolgreich ist. Es besteht Hoffnung, dass wir auch die Lücke zur starken Theorie unter Ausnutzung der Struktur schließen können. Der Standardweg im linearen Fall (z.B. beim Laplace-Problem) ist es, für die schwachen Lösungen mit einem Münchhausen-Prinzip (Elliptic Bootstrapping) Stück für Stück mehr Regularität zu zeigen. Man kann so zeigen, dass die Lösung immer so gut ist, wie die es Daten erlauben. Man nennt das maximale Regularität. Leider ist für die INS das Wachstum in der Nichtlinearität zu schnell, um im 3d-Fall mit diesen Standardmethoden zu argumentieren (im 2d Fall geht es aber). Im 3d-Fall geht es aber unter bestimmten Zusatzbedingungen, z.B. einer höheren Integrierbarkeit des Geschwindigkeitsfeldes als die schwachen Lösungen von vornherein haben. Man fand dies über Skalierungs-Eigenschaften der Gleichung heraus. Grob gesagt, muss man fordern dass die Lösung zu einem Raum gehört, der Skalierungsinvariant ist. Eine weitere zusätzliche Forderung ist die Gültigkeit der Energiegleichung (Erhaltung der kinetischen Energie), denn leider weiß man bisher von schwachen Lösungen nur, dass sie eine Energieungleichung erfüllen. Eine zweite Schwierigkeit der INS ist der Zusammenhang zwischen Druck und Divergenzgleichung. Ein Trick der schwachen Theorie ist, dass wir uns von Anfang an auf Funktionen beschränken, die schwach divergenzfrei sind (also die Gleichung in Integralmittel erfüllen. Was in der Theorie sehr gut funktioniert, ist blöd für die Numerik, weil man Divergenzfreiheit immer wieder herstellen muss wegen der Rechenfehler im Prozess. Unter den Forschern gibt es zwei Richtungen: Entweder man sucht nach Blow-up Lösungen, also schwachen Lösungen, die keine punktweisen Lösungen sein können, oder man versucht die Zusatzforderungen aufzuweichen (um sie am Ende ganz weglassen zu können). Dabei gibt es ständig kleine Fortschritte. Es gibt auch zwei Wege, für allgemeinere Modelle Theorien zu entwickeln, die dann im Spezialfall auch etwas über INS sagen. Ein durch O.A. Ladyzenskaya vorgeschlagener Zugang geht über den p-Laplace-Operator. Hier findet man starke Lösungen für alle p>2,5, die INS ist jedoch der Fall p=2. Als Materialgesetz interessant für Ingenieure ist aber der noch schwierigere Fall 1<p<2. Der zweite Weg sind kompressible Modelle zu nutzen, um Inkompressibilität durch eine Folge immer weniger kompressibler Modelle zu approximieren. Das ist aber sehr schwierig, denn die Skalierungszusammenhänge sind nicht klar und die kompressiblen Modelle sind in der Gültigkeit schwer zu verifizieren. Z.B. lassen sie in der Regel eine Dichte von Null zu, was physikalisch nicht sinnvoll ist. Mark Steinhauer entdeckte die INS in seiner Studienzeit durch eine Vorlesung von Jens Frehse in Bonn. Es gab eine sehr enge Zusammenarbeit mit Schülern von Jindřich Nečas (von der Karlsuni in Prag) z.B. mit Michael Růžička und Josef Málek (und inzwischen deren Schüler). Er promovierte in Bonn und arbeitet heute als Dozent für Mathematik vor allem mit zukünftigen Lehrpersonen an der Uni in Koblenz. Literatur und weiterführende Informationen Ladyzhenskaya, O. A. (1969) [1963, The Mathematical Theory of Viscous Incompressible Flow], Mathematics and Its Applications, 2 (Revised Second ed.), New York–London–Paris: Gordon and Breach Ladyzhenskaya, O. A. (1985), The Boundary Value Problems of Mathematical Physics, Applied Mathematical Sciences, 49, Berlin–Heidelberg–New York: Springer Verlag Leray: Sur le mouvement d´un liquide visqueux emplissant l´espace, Acta Mathematica, Band 63, 1934, S. 193–248 Málek, J., Nečas, J., Rokyta, M.,Růžička, M.: Weak and measure–valued solutions to evolutionary PDE’s, Series: Applied Mathematics and Mathematical Computation 13, Chapman and Hall (CRC Press), 1996. Frehse, J., Málek, J., Steinhauer, M.: On analysis of steady flows of fluids with shear dependent viscosity based on the Lipschitz truncation method, SIAM J. Math. Anal. 34 (No.5) (2003), 1064–1083. Temam, R. (2001), Navier–Stokes Equations, Theory and Numerical Analysis, AMS Chelsea, pp. 107–112
11/10/2016 • 46 minutes, 18 seconds
Filters
Liliana de Luca Xavier Augusto is PhD student of chemical engineering at the Federal University of São Carlos in Brasil. She spent one year of her PhD (October 2015-2016) at the KIT in Karlsruhe to work with the group developing the software OpenLB at the Mathematical Department and the Department of Chemical Engineering. Liliana Augusto investigates filtering devices which work on a micro () and nano () level, and computes the pressure drop between in- and outlet of the filter as well as the collection efficiency. There is a research group conducting experimental setups for these problems, but her research group focuses specifically on mathematical modeling and computer simulation. Due to the small scale and nature of the experiments, one cannot easily take pictures from the physical filters by electronic microsopy, but it is indeed feasible to deduce some important characteristics and geometry such as the size of the fibres for proper modelling and simulation. Appropriate models for the small scale are mesoscopic like Lattice Boltzmann Model where microscopic models are very expensive- too expensive. She is busy with special boundary conditions necessary no-slip boundary condition on the macro scale has to be translated. There is a certain slip to be taken into account to align the results with experimental findings. Lattice Boltzman methods are not very prominent in Brasil. She was looking for suitable partners and found the development group around OpenLB who had co-operations with Brazil. She tried to apply the software on the problem, and she found out about the possibility to work in Germany through a program of the Brasilian government. It is not so common to go abroad as a PhD-student in Brazil. She learnt a lot not only in an academical manner but highly recommends going abroad to experience new cultures as well. She does not speak German- everything, from looking for partners to arriving in Germany, happened so fast that she could not learn the language beforehand. At the university, English was more than sufficient for scientific work, but she had difficulties finding a place to stay. In the end, she found a room in a student dorm with German students and a few other international students. References L.L.X. Augusto e.a.: CFD Simulation of nanofiber-enhanced air filter media - FILTECH 2015 - G6 - Modelling and simulation, 2015. L.L.X. Augusto e.a.: Predicting air flow resistance and capture efficiency of fibrous air filter media - Roomvent, 2014.
11/3/2016 • 28 minutes, 3 seconds
Was ist Mathematik?
Günter M. Ziegler hat unsere Fakultät besucht, um im Didaktik-Kolloquium einen Vortrag mit dem Titel Was ist Mathematik? zu halten. Diese Gelegenheit ergriff Gudrun Thäter, um ihn auf ein kurzes Gespräch zu diesem weitreichenden Thema einzuladen. Günter M. Ziegler studierte Mathematik und Physik an der LMU München. Er promovierte 1987 am MIT in Cambridge und war anschließend in Augsburg und Djursholm (Schweden) wissenschaftlich tätig. 1992 habilitierte er an der TU Berlin und arbeitete anschließend sowohl am Konrad-Zuse-Zentrum als auch an der TU in Berlin (seit 1995 als Professor). 2011 folgte er einem Ruf auf eine Professur für Mathematik an die FU Berlin. Im Jahr 2001 erhielt er den höchstdotierten deutschen Wissenschaftspreis, den Gottfried-Wilhelm-Leibniz-Preis der DFG. Professor Ziegler ist natürlich als jemand, der selbst in der Mathematik forscht, berufen, fundiert über sein Bild der Mathematik zu reden. Darüber hinaus hat er aber auch maßgeblich als Präsident des Berufsverbandes der Mathematiker, der DMV (von 2006 bis 2008) mit darauf hingearbeitet, das Bild der Mathematik in der Öffentlichkeit zu korrigieren und die Allgegenwart mathematischer Techniken und Ergebnisse im Alltag aller Menschen mit dem Wissenschaftsjahr der Mathematik 2008 ins Bewusstsein zu heben. Seither schreibt er auch regelmäßig die Kolumne Mathematik im Alltag in den Mitteilungen der DMV. Er ist Autor verschiedener Bücher zum Themenkreis und wurde für seine vielfältige Tätigkeit 2008 mit dem Communicator Preis ausgezeichnet. Auf dem Internationalen Mathematikerkongress ICM 2014 in Seoul präsentierte er einen eingeladenen Vortrag What is Mathematics? Das Gespräch berührt unter anderem die Themen: Wie fing die persönliche Begeisterung für Mathematik an? Wer ist eigentlich Mathematiker bzw. Mathematikerin? Wie kann man die vielfältigen Facetten der Mathematik sichtbar machen? Wie geht das in der Schule? Wie müssen wir Lehrpersonen hierfür ausbilden? Was ist eine Zahl? Wikipedia definiert Mathematik als "Wissenschaft ..., die durch logische Definitionen selbstgeschaffene abstrakte Strukturen mittels der Logik auf ihre Eigenschaften und Muster untersucht.". Dies klingt sehr langweilig und übersieht, dass Mathematik viele Aspekte hat: Mathematik ist als ein Teil unserer Kultur eingebettet in die Geschichte der Menschheit und war lange auf das engste verbunden mit der Wissenschaft Physik. Mathematik ist aber auch ein Werkzeugkasten für den Alltag. Für Deutschland ist das sehr spürbar seit dem Rechenbüchlein von Adam Ries (1522) - heute gehört dazu auch noch Statistik und Wahrscheinlichkeitsrechnung zur Sortierung von Daten und Fakten. Mathematik ist Zukunftswissen als Grundlage von Hightech. Das zeigt sich u.a. darin, dass es Grundlage für jedes ingenieurwissenschaftliche Studium ist. Mathematik ist eine natürliche menschliche Tätigkeit, in der er seiner Neugier folgt und die spannend und herausfordernd ist. Schüler lernen im Lauf der Schulkarriere in der Regel nicht alle diese Facetten kennen. Nach dem Namen der verwendeten Schulbücher könnte man zum Beispiel denken, Geometrie und Algebra bildeten zusammen die Mathematik. Außerdem hat sich im Lauf der Zeit die Mathematik verändert. Das wird z.B. sichtbar in der Rolle der Computer früher und heute. Im Vergleich dazu gibt zu wenig Wechsel im schulischen Lernstoff. Was über die Zeit bleibt, sind natürlich die Fertigkeiten sauber zu argumentieren, präzise zu formulieren und logisch zu denken. Das muss man unter anderem auch als Ingenieur, Mediziner und Jurist können. Darüber hinaus ist es eine Grundfertigkeit im Alltag, Statistiken zu lesen und zu verstehen. Ein gutes Beispiel, um auch schon in der Schule aufzuzeigen, wo und wie überall Mathematik benutzt wird, wäre z.B. zu vermitteln wie die Wettervorhersage entsteht: Wie wird es gerechnet, mit welchen Unsicherheiten ist das Ergebnis behaftet usw.. Die Numerik ist im Detail zu schwierig, aber die Prinzipien lassen sich durchaus aufzeigen. Man kann auch damit beginnen, dazu Geschichten zu erzählen, die zunächst Grundprinzipien klar machen und anschließend bestimmte Aspekte auch genau und in der Tiefe verständlich machen. Deshalb wurde eine "Erzählvorlesung" Panorama der Mathematik in Berlin entwickelt, die das insbesondere für Lehramtskandidaten und -kandidatinnen sichtbar machen soll und Mathematik in einen weiten Kontext setzt. Es wird die Entwicklung von Mathematik als von Fragen getriebener Prozess dargestellt und ihre Ergebnisse nicht als alternativlos. Denn nicht einmal die Darstellung der Zahlen im Dezimalsystem ist die einzige Möglichkeit, die sich hätte durchsetzen können. Literatur und weiterführende Informationen R. Courant & H. Robbins: Was ist Mathematik? Springer 2001, ISBN 978-3540637776. H. Mendick et.al: Mathematical Bilder and identities: Education, entertainment, social justice. 2008 G.M. Ziegler: Darf ich Zahlen? Geschichten aus der Mathematik. Piper-Verlag, 2010, ISBN 3-492-05346-7. G.M. Ziegler: Mathematik – Das ist doch keine Kunst!. Albrecht Knaus Verlag, München 2013, ISBN 978-3-8135-0584-9. Podcasts G.M. Ziegler: Abenteuer Mathematik, Gespräch mit Tim Pritlove im Forschergeist Podcast, Folge 31, Stifterverband/Metaebene, 2016. W. Lück: Topologie, Gespräch mit Gudrun Thäter, Folge 40, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014.
10/27/2016 • 50 minutes, 8 seconds
Operations Research
Marco Lübbecke hat als Mathematiker den Lehrstuhl für Operations Research an der RWTH Aachen inne. Sein Lehrstuhl ist sowohl der Fakultät für Wirtschaftswissenschaften als auch der Fachgruppe für Mathematik zugeordnet. Zum Gespräch mit Sebastian Ritterbusch in Karlsruhe kam es anlässlich des Treffens der DFG Forschergruppe 2083: Integrierte Planung im öffentlichen Verkehr auf Einladung von Peter Vortisch, der auch schon zur Verkehrsmodellierung in Folge 93 in diesem Podcast zu hören war. Auf Twitter sind Marco Lübbecke unter @mluebbecke und sein Lehrstuhl unter @RWTH_OR zu finden und er schreibt das Blog Café Opt. Operations Research befasst sich zusammenfassend mit mathematischen Modellen und Methoden zur Entscheidungsunterstützung. Dabei steht oft die Frage einer möglichst guten oder optimierten Entscheidung im Vordergrund und daher ist das Gebiet von mathematischer Seite im Bereich der mathematischen Optimierung angesiedelt. Die Optimierung behandelt grundsätzlich die Bestimmung eines optimalen Werts einer Zielfunktion (und einer dazugehörenden Lösung) unter Berücksichtigung von einschränkenden Nebenbedingungen, den Restriktionen. Daneben steht aber auch die Frage der geeigneten Abbildung und Modellierung der Wirklichkeit und den Fehlerquellen der Beschreibung wie auch die grundsätzliche Herangehensweise an das Problem. Das optimierte Zusammenspiel von Menschen, Algorithmen und Technologie wird seit 2011 auch oft mit dem Begriff Industrie 4.0 für eine erhoffte vierte industrielle Revolution beschrieben. Die einheitliche Definition des Begriffs lassen aber selbst renommierte Industrievertreter offen. Als eine Schnittmenge der Beschreibungen kann man die lokale Intelligenz von Fertigungskomponenten ausmachen, die über Vernetzung und Sensorik zu einem besseren Gesamtprozess führen kann. Im Kleinen werden so Entscheidungsprozesse durchgeführt und dies führt grundlegend auf die gerade eingeführte mathematische Optimierungstheorie mit allen ihren Facetten. So gesehen ist die Industrie 4.0 als Optimierungsproblem eigentlich ohne Mathematik undenkbar. Ein in der Universität sehr naheliegendes Feld der Optimierung ist die Vorlesungsplanung, und hier ist aus der Forschung zusammen mit Gerald Lach in Kooperation zwischen der TU Berlin und der RWTH Aachen die Lösung Mathplan entstanden, die inzwischen an vielen Universitäten erfolgreich zur Vorlesungs-, Tutorien- und Klausurplanung eingesetzt wird. Mit genügend Zeit und genügend Personal kann man zwar einen einigermaßen akzeptablen Plan mit viel Erfahrung auch ohne besondere mathematische Optimierung aufstellen, das ändert sich aber schlagartig, wenn kurzfristige Änderungen berücksichtigt und Konflikte aufgelöst werden müssen. Mathematisch geht es hier um ganzzahlige lineare Programme, für die zwar Lösungsverfahren bekannt waren, diese für die Größenordnung der Probleme nicht geeignet waren. Eine Modellreduktion ohne Verlust der Optimalität führte hier zur Lösung. Auch in der Erstellung von Zugfahrplänen besteht ein großes Optimierungspotential. Da die Realität nicht perfekt planbar ist, geht es hier besonders um eine robuste Planung, die auch bei entstehenden Störungen noch das anvisierte Ziel erreichen kann. In der Forschung unter anderem auch mit Anita Schöbel der Uni Göttingen geht es um die Analyse der Fortpflanzungen von Verzögerungen, damit besonders kritische Fälle besonders behandelt werden können. Ein weiterer Gesichtspunkt ist aber auch die Möglichkeit Probleme möglichst gut durch kleine Eingriffe wieder korrigieren zu können. Ein zunächst überraschendes Forschungsthema ist die Bundestagswahl, wo sich Sebastian Goderbauer mit der optimierten Wahlkreiseinteilung befasst. Die 299 Bundestagswahlkreise werden weitaus häufiger neu zugeschnitten als man denkt: Da nach Bundestagswahlgesetz jeder Wahlkreis gerade 1/299-tel der Wahlberechtigten mit einer Toleranz von maximal 25 Prozent vertreten muss, erfordert die Wählerwanderung und Veränderung der Bevölkerungsstruktur die regelmäßigen Veränderungen. Das sogenannte Gerrymandering ist besonders bei Wahlen mit Mehrheitswahlrecht ein sehr problematisches Vorgehen bei Wahlkreisveränderungen, das offensichtlich undemokratische Auswirkungen hat. In Deutschland ist dies weniger ein Problem, wohl aber die deutlich ungleiche Größenverteilung der Wahlkreise. Die mathematische Definition und Betrachtung als Optimierungsproblem trägt die Hoffnung in sich, dass das Zuschnitt-Verfahren transparenter und nachvollziehbarer als bisher abläuft, und das sich dadurch balanciertere Wahlkreisgrößen ergeben können. Ein zentrales Forschungsgebiet ist für Marco Lübbecke der Bereich der ganzzahligen Programme. Die vielen auftretenden Variablen können beispielsweise Entscheidungen repräsentieren, die diskrete Werte wie ja oder nein repräsentieren. Dazu kommen verschiedene Resktriktionen und Nebenbedingungen, die Einschränkungen aus der Umgebungssituationen wie beispielsweise begrenzte Resourcen darstellen. Der Begriff "Programm" für die Bezeichnung von Optimierungsproblemen ist historisch aus dem englischen Begriff "programming" entstanden, der früher intensiv für "Planung" verwendet wurde. Heutzutage ist dieser Zusammenhang nicht mehr so naheliegend und entsprechend hat sich die Mathematical Programming Society (MPS) in Mathematical Optimization Society (MOS) umbenannt. Sind die Variablen eines Optimierungsproblems im , so kann man sich Schnitte mit linearen Ungleichungen wie das halbseitige Abschneiden des Lösungsraumes mit Ebenen vorstellen. Man nennt das Resultat ein Polyeder oder Vielflächner. Ist nun zusätzlich auch die Zielfunktion linear, so spricht man von einem linearen Optimierungsproblem oder linearen Programm. Wird nun der Lösungsbereich mit einem Gitter geschnitten, d.h. die Variablen können nur diskrete wie z.B. nur ganzzahlige Werte annehmen, so wird das Optimierungsproblem deutlich schwieriger. Dies ist erstaunlich, da der Lösungsbereich deutlich eingeschränkt wird. Jedoch verliert der Lösungsbereich seine konvexe Struktur und führt im linearen Fall von einem in polynomialer Zeit lösbaren Problem zu einem NP-schweren Problem. Wenn die Lösungsmenge eine beschränkte Anzahl von Elementen besitzt, so ist die Existenz von Maximum und Minimum durch Ausprobieren leicht zu beweisen. Das Problem ist jedoch, dass bei großen Datenmengen das vollständige Durchsuchen viel zu lange dauern würde. Eine Strategie zur Reduktion des Problems ist hier die Aggregation oder das Clustering, wo verschiedene Aspekte durch einzelne Repräsentanten dargestellt und gruppiert werden und so Rechenzeit eingespart wird. Zwar werden so nur approximierte Probleme gelöst, jedoch deutlich schneller und wenn möglich mit Fehlerschranken, die den maximalen Abstand zur tatsächlichen Lösung spezifizieren. Ein Beispiel für dieses Prinzip sind die Contraction Hierarchies, die das Routingproblem bzw. einen kürzesten Pfad auf einem Graphen zu finden durch eine zuvor berechnete Reduktion des betrachteten Netzes beschleunigen, exakte Fehlerschranken liefern, und gleichzeitig die Berechnung einer optimalen Lösung durch Berechnung lokaler Routen ermöglicht. Das Verfahren kommt aber an Grenzen, wenn einige Aspekte nur mit Wahrscheinlichkeiten beschrieben werden können. Ein klassisches Optimierungsproblem ist das Problem des Handlungsreisenden, an dem sich die verschiedenen Verfahren und Analysen der diskreten Optimierung illustrieren lassen. Dabei hat das Problem die Forschungsrelevanz nicht verloren: Viele neue Verfahren und Forschungsansätze gehen auf das Problem des Handlungsreisenden zurück. Gleichzeitig steht das Problem stellvertretend für viele Optimierungsprobleme zu Reihenfolgen in der Anwendung und findet so immer neuen Einsatz. Grundsätzlich basieren Optimierungsprobleme auf der Suche nach Extremwerten, diese kann man beispielsweise mit Abstiegs- oder Aufstiegsverfahren versuchen zu finden. Will man nun Einschränkungen berücksichtigen, so kann man die Zielfunktion mit Lagrange-Multiplikatoren für die Restriktionen erweitern. Diese Multiplikatoren kann man als Strafterme verstehen, die das Finden des Optimums unter Einhaltung der Restriktionen erzwingen. Die Verwendung der Lagrange-Multiplikatoren erzeugt automatisch über die Lagrange-Dualität ein duales Problem und führt auch auf Sattelpunkte. Die neue Sichtweise ist aus mehreren Gründen sehr hilfreich: Zum einen vereinfacht diese Dualität mathematische Beweise, sie ermöglicht Abschätzungen für die Qualität von Lösungen und liefert gleich zwei alternative Verfahren, um ein Optimierungsproblem zu lösen. Ein Standardverfahren zum Lösen von linearen Optimierungsproblemen ist das Simplex-Verfahren. Hier wird ausgenutzt, dass lineare Restriktionen ein Polyeder bilden und eine lineare Optimierungsfunktion ihr Maximum auf einer (Hyper-)Fläche, einer Kante (bzw. entsprechenden höherdimensionalen Strukturen) oder einer Ecke annehmen muss. Diese Kanten und Ecken werden mit dem Verfahren systematisch durchsucht. Beim schriftlichen Rechnen hat das Simplex-Verfahren große Ähnlichkeit mit dem Gaußschen Eliminationsverfahren, das zum Lösen von linearen Gleichungssystemen eingesetzt wird. In der Praxis ist das Simplex-Verfahren sehr schnell, jedoch finden sich konstruierte Gegenbeispiele, auf denen das Simplex-Verfahren eine schrecklich langsame exponentielle Laufzeit an den Tag legt. Daher haben hier traditionelle innere Punkte-Verfahren und Barrier-Verfahren ein aufwandstheoretisch deutlich besseres Laufzeitverhalten, in der Praxis sind die Ergebnisse aber sehr gemischt. Hat man nun ein diskretes bzw. ganzzahliges Problem, so liefert das Simplex-Verfahren ohne Berücksichtigung der Diskretisierung typischerweise keine ganzzahlige Lösung, liefert aber Abschätzungen für das Optimum, da der Wert einer optimalen ganzzahligen Lösung nicht besser sein kann als der einer optimalen kontinuierlichen Lösung. Für die nicht-ganzzahligen Lösungen für einzelne Variablen wie kann man nun zwei ganzzahlige Restriktionen definieren wie oder , und jetzt zwei Teilprobleme bzw. "Branches" mit je einer der beiden Restriktionen zusätzlich lösen. So erhält man entweder ein unzulässiges Teilproblem, oder bereits ein ganzzahlige Lösung (nicht notwendigerweise eine beste) oder eben wieder eine nicht-ganzzahlige. Durch fortwährendes Verzeigen auf den nicht-ganzzahligen Variablen entsteht eine Baumstruktur der Teilprobleme. Mit Hilfe der aus den jeweiligen kontinuierlichen Relaxationen gewonnenen Schranken lassen sich ganze Äste des Baums abschneiden ("Bound"), in denen keine bessere Lösung mehr zu finden ist als die beste die man bisher gefunden hat. Dieses Verfahren führen wir für alle weiteren verbleibenden Probleme oder Branches durch bis eine optimale lineare und diskrete Lösung übrig bleibt. Damit liefert das Branch-and-Bound-Verfahren bzw. weiter verfeinert das Branch-and-Cut-Verfahren auf Basis der Lösung von vielen kontinuierlichen linearen Optimierungsproblemen die Lösung des diskreten Problems. Eine Erweiterung des Verfahrens auf besonders große Probleme ist das Branch-and-Price-Verfahren, das mit Basis von Column Generation die Variablen sucht, die für die Lösung des Gesamtproblems relevant sind, und das Problem eingeschränkt auf diese Variablen löst, ohne dabei Optimalität aufzugeben. Ein interessantes Beispiel ist hier das Bin Packing bzw. Behälterproblem, wo es darum geht, eine Anzahl von verschiedenen Objekten auf eine Anzahl von Behältern zu verteilen. Das Entscheidungsproblem, ob eine gegebene Anzahl von Behältern reicht, ist sowohl für Versandhäuser äußerst relevant, ist aber gleichzeitig auch NP-Vollständig, also aufwandstheoretisch nachgewiesen schwer. Hier kann man durch vorheriges Sammeln von möglichen Füllmustern ein riesengroßes Modell erstellen, dieses aber mit der column generation in der Praxis um so effizienter lösen. In der Industrie werden beispielsweise die Pakete Cplex, Gurobi oder Xpress zur Lösung von Optimierungsproblemen eingesetzt, die die besprochenen Verfahren umsetzen. Hier können auch Modellierungssprachen zum Einsatz kommen, die die Probleme abstrakt und menschenlesbar definieren. Vorteile sind hier die Trennung von Daten und Modell und auch die Trennung von Problem und Löser. Ein Beispiel für eine Modellierungssprache für Optimierungsproblemen ist GAMS, sie stehen aber heutzutage in starker Konkurrenz zu modernen Programmiersprachen wie Python. Im Sinne des Leitsatzes "Tue Gutes und rede darüber" ist die Kommunikation von Wissenschaft für Forschende in Öffentlichkeit, Social Media und Internet eine große Gelegenheit mit vielen Vorteilen: Neben dem Austausch von wichtigen Erfahrungen zum Beispiel zum Schreiben wissenschaftlicher Paper, hilft es der wissenschaftlichen Vernetzung, der gesellschaftlichen Diskussion zur Relevanz des Forschungsgebiet über den Tellerand hinaus, und interessiert auch die Öffentlichkeit und auch junge Menschen näher in die spannenden Themen einzusteigen. Literatur und weiterführende Informationen G. Lach, M. Lübbecke: Optimal university course timetables and the partial transversal polytope, International Workshop on Experimental and Efficient Algorithms. Springer Berlin Heidelberg, 2008. C. Liebchen, M. Lübbecke, R. Möhring, S. Stiller: The concept of recoverable robustness, linear programming recovery, and railway applications, in Robust and online large-scale optimization (pp. 1-27). Springer Berlin Heidelberg, 2009. S. Goderbauer: Mathematische Optimierung der Wahlkreiseinteilung für die Deutsche Bundestagswahl, Springer Spektrum, Springer BestMasters, 2016. S. Goderbauer, B. Bahl, P. Voll, M. Lübbecke, A. Bardow, A. Koster: An adaptive discretization MINLP algorithm for optimal synthesis of decentralized energy supply systems, Computers & Chemical Engineering, 95, 38-48, 2016. R. Geisberger: Contraction Hierarchies: Faster and Simpler Hierarchical Routing in Road Networks, Diplomarbeit am Institut für Theoretische Informatik Universität Karlsruhe, 2008. M. Lübbecke, J. Desrosiers: Selected topics in column generation, Operations Research, 53(6), 1007-1023, 2005. M. Lübbecke: How to write a paper, blog post, 2014. M. Lübbecke: Are we too complicated? Communication of the Travelling Salesperson Problem in public, blog post, 2015. Podcasts S. Müller: Schulwegoptimierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 101, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schulwegoptimierung P. Vortisch: Verkehrsmodellierung I, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 93, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrsmodellierung-i K. Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Dickmann: Pumpspeicherkraftwerke, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 5, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/pumpspeicher J. Wolf: Puerto Patida, das Rätselhörspiel zum Mitmachen, http://OhneQ.de, 2015-2016.
10/20/2016 • 2 hours, 31 minutes, 18 seconds
Crime Prevention
This is the last of four conversation Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th April 2016 in Oxford. Andrea Bertozzi from the University of California in Los Angeles (UCLA) held a public lecture on The Mathematics of Crime. She has been Professor of Mathematics at UCLA since 2003 and Betsy Wood Knapp Chair for Innovation and Creativity (since 2012). From 1995-2004 she worked mostly at Duke University first as Associate Professor of Mathematics and then as Professor of Mathematics and Physics. As an undergraduate at Princeton University she studied physics and astronomy alongside her major in mathematics and went through a Princeton PhD-program. For her thesis she worked in applied analysis and studied fluid flow. As postdoc she worked with Peter Constantin at the University of Chicago (1991-1995) on global regularity for vortex patches. But even more importantly, this was the moment when she found research problems that needed knowledge about PDEs and flow but in addition both numerical analysis and scientific computing. She found out that she really likes to collaborate with very different specialists. Today hardwork can largely be carried out on a desktop but occasionally clusters or supercomputers are necessary. The initial request to work on Mathematics in crime came from a colleague, the social scientist Jeffrey Brantingham. He works in Anthropology at UCLA and had well established contacts with the police in LA. He was looking for mathematical input on some of his problems and raised that issue with Andrea Bertozzi. Her postdoc George Mohler came up with the idea to adapt an earthquake model after a discussion with Frederic Paik Schoenberg, a world expert in that field working at UCLA. The idea is to model crimes of opportunity as being triggered by crimes that already happend. So the likelihood of new crimes can be predicted as an excitation in space and time like the shock of an earthquake. Of course, here statistical models are necessary which say how the excitement is distributed and decays in space and time. Mathematically this is a self-exciting point process. The traditional Poisson process model has a single parameter and thus, no memory - i.e. no connections to other events can be modelled. The Hawkes process builds on the Poisson process as background noise but adds new events which then are triggering events according to an excitation rate and the exponential decay of excitation over time. This is a memory effect based on actual events (not only on a likelihood) and a three parameter model. It is not too difficult to process field data, fit data to that model and make an extrapolation in time. Meanwhile the results of that idea work really well in the field. Results of field trials both in the UK and US have just been published and there is a commercial product available providing services to the police. In addition to coming up with useful ideas and having an interdisciplinary group of people committed to make them work it was necessery to find funding in order to support students to work on that topic. The first grant came from the National Science Foundation and from this time on the group included George Tita (UC Irvine) a criminology expert in LA-Gangs and Lincoln Chayes as another mathematician in the team. The practical implementation of this crime prevention method for the police is as follows: Before the policemen go out on a shift they ususally meet to divide their teams over the area they are serving. The teams take the crime prediction for that shift which is calculated by the computer model on the basis of whatever data is available up to shift. According to expected spots of crimes they especially assign teams to monitor those areas more closely. After introducing this method in the police work in Santa Cruz (California) police observed a significant reduction of 27% in crime. Of course this is a wonderful success story. Another success story involves the career development of the students and postdocs who now have permanent positions. Since this was the first group in the US to bring mathematics to police work this opened a lot of doors for young people involved. Another interesting topic in the context of Mathematics and crime are gang crime data. As for the the crime prediction model the attack of one gang on a rival gang usually triggers another event soon afterwards. A well chosen group of undergraduates already is mathematically educated enough to study the temporary distribution of gang related crime in LA with 30 street gangs and a complex net of enemies. We are speaking about hundreds of crimes in one year related to the activity of gangs. The mathematical tool which proved to be useful was a maximum liklihood penalization model again for the Hawkes process applied on the expected retaliatory behaviour. A more complex problem, which was treated in a PhD-thesis, is to single out gangs which would be probably responsable for certain crimes. This means to solve the inverse problem: We know the time and the crime and want to find out who did it. The result was published in Inverse Problems 2011. The tool was a variational model with an energy which is related to the data. The missing information is guessed and then put into the energy . In finding the best guess related to the chosen energy model a probable candidate for the crime is found. For a small number of unsolved crimes one can just go through all possible combinations. For hundreds or even several hundreds of unsolved crimes - all combinations cannot be handled. We make it easier by increasing the number of choices and formulate a continuous instead of the discrete problem, for which the optimization works with a standard gradient descent algorithm. A third topic and a third tool is Compressed sensing. It looks at sparsitiy in data like the probability distribution for crime in different parts of the city. Usually the crime rate is high in certain areas of a city and very low in others. For these sharp changes one needs different methods since we have to allow for jumps. Here the total variation enters the model as the -norm of the gradient. It promotes sparsity of edges in the solution. Before coming up with this concept it was necessary to cross-validate quite a number of times, which is computational very expensive. So instead of in hours the result is obtained in a couple minutes now. When Andrea Bertozzi was a young child she spent a lot of Sundays in the Science museum in Boston and wanted to become a scientist when grown up. The only problem was, that she could not decide which science would be the best choice since she liked everything in the museum. Today she says having chosen applied mathematics indeed she can do all science since mathematics works as a connector between sciences and opens a lot of doors. References Press coverage of Crime prevention collected Website of Mathematical and Simulation Modeling of Crime Examples for work of undergraduates M. Allenby, e.a.: A Point Process Model for Simulating Gang-on-Gang Violence, Project Report, 2010. K. Louie: Statistical Modeling of Gang Violence in Los Angeles, talk at AMS Joint meetings San Francisco, AMS Session on Mathematics in the Social Sciences, 2010] Publications of A. Bertozzi and co-workers on Crime prevention G.O. Mohler e.a.: Randomized controlled field trials of predictive policing, J. Am. Stat. Assoc., 111(512), 1399-1411, 2015. J. T. Woodworth e.a.: Nonlocal Crime Density Estimation Incorporating Housing Information, Phil. Trans. Roy. Soc. A, 372(2028), 20130403, 2014. J. Zipkin, M. B. Short & A. L. Bertozzi: Cops on the dots in a mathematical model of urban crime and police response, Discrete and Continuous Dynamical Systems B, 19(5), pp. 1479-1506, 2014. H. Hu e.a.: A Method Based on Total Variation for Network Modularity Optimization using the MBO Scheme, SIAM J. Appl. Math., 73(6), pp. 2224-2246, 2013. L.M. Smith e.a.: Adaptation of an Ecological Territorial Model to Street Gang Spatial Patterns in Los Angeles Discrete and Continuous Dynamical Systems A, 32(9), pp. 3223 - 3244, 2012. G. Mohler e.a.. (2011): Self- exciting point process modeling of crime, Journal of the American Statistical Association, 106(493):100–108, 2011. A. Stomakhin, M. Short, and A. Bertozzi: Reconstruction of missing data in social networks based on temporal patterns of interactions. Inverse Problems, 27, 2011. N. Rodriguez & A. Bertozzi: Local Existence and Uniqueness of Solutions to a PDE model for Criminal Behavior , M3AS, special issue on Mathematics and Complexity in Human and Life Sciences, Vol. 20, Issue supp01, pp. 1425-1457, 2010. Related Podcasts AMS - Mathematical Moments Podcast: MM97 - Forecasting Crime British Applied Mathematics Colloquium 2016 Special J.Dodd: Crop Growth, Conversation with G. Thäter in the Modellansatz Podcast episode 89, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2016. http://modellansatz.de/crop-growth H. Wilson: Viscoelastic Fluids, Conversation with G. Thäter in the Modellansatz Podcast episode 92, Department of Mathematics, Karlsruhe Institute of Technology (KIT), 2016. http://modellansatz.de/viscoelastic-fluids A. Hosoi: Robots, Conversation with G. Thäter in the Modellansatz Podcast, episode 108, Department for Mathematics, Karlsruhe Institute of Technologie (KIT), 2016. http://modellansatz.de/robot A. Bertozzi: Crime Prevention, Conversation with G. Thäter in the Modellansatz Podcast, episode 109, Department for Mathematics, Karlsruhe Institute of Technologie (KIT), 2016. http://modellansatz.de/crime-prevention
10/13/2016 • 40 minutes, 34 seconds
Robots
This is another conversation Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th April 2016 in Oxford. Since 2002 Anette Hosoi has been Professor of Mechanical Engineering at MIT (in Cambridge, Massachusetts). She is also a member of the Mathematical Faculty at MIT. After undergraduate education in Princeton she changed to Chicago for a Master's and her PhD in physics. Anette Hosoi wanted to do fluid dynamics even before she had any course on that topic. Then she started to work as Assistant Professor at MIT where everyone wanted to build robots. So she had to find an intersection between fluid and roboters. Her first project were Robo-snailes with her student Brian Chan. Snails move using a thin film of fluid under their foot (and muscles). Since then she has been working on the fascinating boundary of flow and biomechanics. At the BAM Colloquium she was invited for a plenary lecture on "Marine Mammals and Fluid Rectifiers: The Hydrodynamics of Hairy Surfaces". It started with a video of Boston dynamics which showed the terrific abilities some human-like robots have today. Nevertheless, these robots are rigid systems with a finite number of degrees of freedom. Anette Hosoi is working in control and fluid mechanics and got interested in soft systems in the context of robots of a new type. Soft systems are a completely new way to construct robots and for that one has to rethink everything from the bottom up.You are a dreamer she was told for that more than once. For example Octopuses (and snails) move completely different to us and most animals the classcallly designed robots with two, four or more legs copy. At the moment the investigation of those motions is partially triggered by the plausible visualization in computer games and in animated movie sequences. A prominent example for that is the contribution of two mathematicians at UCLA to represent all interactions with snow in the animated movie Frozen. The short verison of their task was to get the physics right when snow falls off trees or people fall into snow - otherwise it just doesn't look right. To operate robots which are not built with mechanical devices but use properties of fluids to move one needs valves and pumps to control flow. They should be cheap and efficient and without any moving parts (since moving parts cause problems). A first famous example for such component is a fluid rectifier which was patented by Nicola Tesla in the 1920ies. His device relied on inertia. But in the small devices as necessary for the new robots there are no inertia. For that Anette Hosoi and her group need to implement new mechnisms. A promising effect is elasticity - especially in channels. Or putting hair on the boundary of channels. Hair can cause asymmetric behaviour in the system. In one direction it bends easily with the flow while in the opposite direction it might hinder flow. While trying to come up with clever ideas for the new type of robots the group found a topic which is present (almost) everywhere in biology - which means a gold mine for research and open questions. Of course hair is interacting with the flow and not just a rigid boundary and one has to admit that in real life applications the related flow area usually is not small (i.e. not negligible in modelling and computations). Mathematically spoken, the model needs a change in the results for the boundary layer. This is clear from the observations and the sought after applications. But it is clear from the mathematical model as well. At the moment they are able to treat the case of low Reynolds number and the linear Stokes equation which of course, is a simplification. But for that case the new boundary conditions are not too complicated and can be treated similar as for porous media (i.e. one has to find an effective permeability). Fortunately even analytic solutions could be calculated. As next steps it would be very interesting to model plunging hairy surfaces into fluids or withdrawing hairy surfaces from fluids (which is even more difficult). This would have a lot of interesting applications and a first question could be to find optimal hair arrangements. This would mean to copy tricks of bat tongues like people at Brown University are doing. References I. E. Block Community Lecture: Razor Clams to Robots: The Mathematics Behind Biologically Inspired Design , A. Hosoi at SIAM Annual meeting, 2013. B. Chan, N.J. Balmforth and A.E. Hosoi: Building a better snail: Lubrication and adhesive locomotion, Phys. Fluids, 17, 113101, 2005.
10/6/2016 • 20 minutes, 36 seconds
Erasmus
Vojtěch Cvrček ist im Herbst 2013 als Erasmusstudent von der CTU in Prag nach Karlsruhe ans KIT entsandt worden. Er hatte schon in der Grundschule Deutsch gelernt und wollte seine Sprachkenntnisse direkt in Deutschland verbessern. Deshalb wollte er auch ein ganzes Jahr bleiben (nicht nur ein Semester). Das bedeutete insbesondere, dass er die Einarbeitung in seine Masterarbeit schon in Karlsruhe beginnen müsste und deshalb ein Thema und ein Betreuerteam finden müsste, dass dies ermöglicht. Seine deutsche Wunschstadt war eigentlich Berlin - wegen der räumlichen Nähe zur Prag und weil ihm die Stadt gut gefiel. Leider gab es im Rahmen des Erasmusprogrammes aber keine Möglichkeit für ihn, dort sein Mathematikstudium fortzuführen. Infrage kamen dafür nur die TU Hamburg, TU Darmstadt und das KIT in Karlsruhe. Unter seinen Professoren und Mitstudenten in Prag war das KIT in Karlsruhe nicht gut bekannt, aber ein ordentlicher Fußballverein war in seinen Augen ein Pluspunkt für Karlsruhe. Nach der Entscheidung für Karlsruhe suchte er nach persönlichen Ansprechpartnern. Er fand die Projekte von Matthias Krause im Internet und ihn begeisterte insbesondere die dort vorgestellte Zusammenarbeit der Mathematik mit dem studentischen Projekt KAraceing. Deshalb schrieb er Matthias Krause eine e-mail und stellte sich als künftiger Erasmusstudent vor, der den einen oder anderen Rat einholen wollen würde. Er fand ein offenes Ohr und geeignete Lehrveranstaltungen wurden entsprechend seinen Zielen für das Jahr in Karlsruhe zusammengestellt. Für die Zeit in Karlsruhe und darüber hinaus hatte er damit einen Mentor, der ihn schließlich auch in seine Arbeitsgruppe integriert hat. Vojtěch Cvrček wurde studentische Hilfskraft und unterstützte Matthias Krause zunächst in der Lehre bis er in der Lage war, das Softwareprojekt OpenLB mit weiter zu entwickeln. Die Gruppenmeetings des Teams um OpenLB gehörten selbstverständlich zu seiner Arbeit und der Austausch in der Gruppe war dadurch sehr intensiv. Deshalb sieht Vojtěch Cvrček das Jahr in Karlsruhe als das beste Jahr in seinem Studium an. Er hat hier sehr viel gelernt und tolle Unterstützung durch Mitstudierende gefunden. Als Vorlesungen entschied er sich für Mathematische Modellbildung und Simulation in der Praxis, Partielle Differentialgleichungen, das Projektorientierte Praktikum, Inverse Probleme und Paralleles Rechnen. Anschließend stand die Vorbereitung der Masterarbeit zum Thema Mischung von nichtnewtonschen Fluiden im Vordergrund. Nichtnewtonsche Fluide finden sich überall, z.B. auch in der Medizin (hier vor allem das Fluid Blut). Seine Professor in Prag hat schon lange Beziehung zum Institut für experimentelle Medizin, deshalb war dieses Thema für beide Seiten (Karlsruhe und Prag) sehr interessant. Seine Vorkenntnisse und der Wunsch, die deutschen Sprache wirklich zu sprechen, erwiesen sich als Vorteil, weil Vojtěch Cvrček so leichter Kontakte knüpfen konnte zu den deutschen Studierenden und Mitarbeitern. Nach einer Anfangszeit mit einer Unterkunft am Stadtrand von Karlsruhe konnte er im Studentenwohnheim HaDiKo (kurz für Hans-Dickmann-Kolleg) einziehen, was einem reichhaltiges sozialen Leben zur Folge hatte und auch vielen Kontakten zu nicht-Mathematikern. Nach erfolgreichem Abschluss des Studiums in Prag wollte er gern in Deutschland eine Arbeit als Ingenieur finden. Dafür hat er auch die Karrieremessen des KIT genutzt, um direkt Kontakt zu Firmen zu knüpfen. Das hat schließlich dazu geführt, dass er sogar die Wahl zwischen verschiedenen Angeboten hatte. Er wird nun als Mathematiker im Maschinenbau tätig sein in der Nähe von Karlsruhe. Referenzen: OpenLB Open source lattice Boltzmann code I. Wayand: Palo Alto, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 106, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. H. Wilson: Viscoelastic Fluids, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 92, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016.
9/29/2016 • 35 minutes, 32 seconds
Palo Alto
Isabell Wayand ist eine Studentin im Masterstudiengang Mathematik am KIT. Sie hat an verschiedene Lehrveranstaltungen in der angewandten Mathematik teilgenommen, deren Dozentin Gudrun war. Anlass des Podcast-Gespräches war ein 6-monatiges Praktikum, dass Frau Wayand kürzlich bei der Firma Bosch am Sitz in Palo Alto im US-Bundesstaat Kalifornien absolviert hat. In der Arbeitsgruppe in der Frau Wayand beschäftigt war, wird Software entwickelt, die Einspritzsysteme simulieren kann, d.h. es geht um die Nachbildung komplizierter physikalischer Vorgänge in denen die Strömung eines Benzin bzw. Diesel-Luft-Gemisches und das erzeugte Spray in einer komplexen Geometrie interagieren. Ihre Aufgabe bestand darin, die dort benutzte Implementierung von Zustandsgleichungen in der Strömungssimulation zu verbessern. Ein konkreter Teilaspekt dabei war, wie unter Kenntnis von Dichte und Temperatur der zugehörige Druck berechnet wird. Die vorhandene Implementierung sollte deutlich beschleunigt werden und die Fluid-Eigenschaften realistischer. Der hierfür gewählte Weg war schließlich, die Zustandsgleichung als Tabelle von Tripeln zu hinterlegen. Das führte auf Tabellen mit mehreren 100.000 bis einige Millionen abgespeicherten Zuständen (als Triple von Dichte, Temperatur und Druck). Selbst das ist noch nicht genau genug für alle Berechnungen, weshalb für Zwischenwerte noch interpoliert werden muss. Durch die großen Tabellen (bzw. die vielen hinterlegten Werte) sind die so zu überbrückenden Lücken jedoch klein genug, dass eine einfache lineare Interpolation ausreicht. Ein wichtiger Aspekt hierbei ist die Organisation der Tabellen, um einen schnellen Zugriff auf das richtige Datentripel zu gewährleisten. Die Wahl war schließlich ein Octree, damit die Daten schnell gefunden werden können. Ein Grund sich für das Praktikum in Palo Alto zu bewerben, war Frau Wayands Wunsch im Studium schon Auslandserfahrung zu sammeln. Da sie ein Praktikum bei Bosch in Stuttgart mit guten Erfahrungen beendet hatte, kam es ihr sehr gelegen, dass es von dort die Beziehungen nach Palo Alto in die Themen der Strömungsrechnung gab. In Silikon Valley sind Arbeitsgruppen stets sehr international besetzt. In ihrer Gruppe waren es z.B. Mitarbeiter aus Indien, China, Korea und Frankreich, neben nur einem US-Amerikaner. So muss man natürlich kulturelle Unterschiede überbrücken. In Bezug auf die inhaltliche Arbeit war Frau Wayand sehr zufrieden. Sie bekam mehrfach Rückmeldung von ihrem Betreuer, nachdem sie ihren Arbeitsstand im Gruppen-Meeting vorgestellt hatte. Am Ende gab es ein Feedbackgespräch mit Personalabteilung und Betreuer (inkl. Arbeits-Zeugnis). Sie fühlte sich durch die Ausbildung in Karlsruhe gut auf die Aufgaben im Praktikum vorbereitet. Durch das Studentenbindungsprogramm bei Bosch wurde sie stark unterstützt. Das betraf finanzielle Hilfe als auch Hilfe bei den Formalitäten. Außerdem wurde in Palo Alto sogar eine Wohnung wurde gestellt, die sie mit einer anderen Praktikantin geteilt hat. Ihr Fazit nach der Herausforderung: Man sollte sich das durchaus zutrauen. Verwandte Podcast C.Straub: Injektoren, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 8, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2013. http://modellansatz.de/injektoren
9/22/2016 • 15 minutes, 36 seconds
Adiabatische Quantencomputer
Im Anschluss ihres Erasmus-Auslandsjahr in Lyon hat sich Alexandra Krause als angehende Physikerin in den Bereich der Quanteninformatik vertieft. Dazu hat sie im Rahmen der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe über Quantum Speedup (video) vorgetragen und Zeit gefunden, uns auch im Podcast etwas über das Thema zu erzählen. Im Gegensatz zur klassischen Physik gelten in der Quantenmechanik eigene Regeln: So geht es hier um Teilchen in der Größenordnung von Atomen, wo die Begriffe Teilchen und Welle verschwimmen und der quantenmechanische Zustand unbeobachtet nur noch als Zustandsgemisch beschrieben werden kann. Genau diese Eigenschaft will man sich beim Quantencomputer zu Nutze machen, wo gegenüber dem klassischen digitalen Computer, der immer auf einzelnen festen Zuständen in Bits mit Logikgattern rechnet, der Quantenrechner pro Schritt in Qubits auf allen Zuständen gleichzeitig operiert. Das eigentliche Ergebnis erhält man dort erst bei der Messung, wodurch sich der reine Zustand des Quantensystems einstellt. Der Grover-Algorithmus ist eine bekannte Anwendung für einen Quantencomputer, der Datenbanken schneller als klassische Verfahren durchsuchen kann. Der Shor-Algorithmus kann hingegen mit einer Quanten-Fouriertransformation in polynomialer Zeit Zahlen in ihre Primfaktoren zerlegen kann. Damit werden viele assymetrische Kryptoverfahren wie das RSA-Verfahren obsolet, da sie auf der Schwierigkeit der klassischen Faktorisierung basieren. Shor hat in der gleichen Publikation auch ein Verfahren zur effizienten Berechnung von diskreten Logarithmen auf Quantencomputern veröffentlicht, so dass auch Kryptoverfahren auf elliptischen Kurven durch Quantencomputer gebrochen werden, die neben dem RSA-Verfahren Basis für viele Kryptowährungen sind. Zum jetzigen Zeitpunkt ist es der Experimentalphysik noch nicht gelungen, allgemeine Quantensysteme in einer Größe zu erschaffen, die für sinnvolle Anwendungen der Verfahren erforderlich wären. Die Schwierigkeit liegt darin, den Quantenzustand einzelner Qubits von der Umwelt abzukoppeln und nur für die Berechnung zu verwenden, wenn doch alles in der Umgebung in Bewegung ist. In der Größe weniger Qubits, die allgemeine Quantencomputer bisher erreichen konnten, wurden Zahlen wie 15 und 21 erfolgreich faktorisiert. Eine Hoffnung besteht hier auf dem adiabatischen Quantencomputer auf Basis adiabatischen Theorems, der von der Firma D-Wave Systems gebaut, und 2011 mit unvergleichlich vielen 128 Qubits auf den Markt gebracht wurde. Das Problem ist dabei, dass adiabatischen Quantencomputer im normalen Arbeitszustand keine universellen Quantencomputer sind, und hauptsächlich Optimierungsprobleme lösen können. Universelle Quantencomputer können im Circuit model anschaulich jedes herkömmliches Programm abbilden: Jedes klassische Logik-Gatter kann durch Hinzufügen weiterer Ausgänge reversibel werden, und dann als eine unitäre Abbildung oder Matrizen im Quantencomputer realisiert werden. Unitäre Abbildungen sind lineare Abbildungen mit der Eigenschaft, dass sie das komplexe Skalarprodukt zweier Vektoren nach der Abbildung erhalten, d.h. Vektoren behalten die gleiche Länge, und zwei Vektoren behalten den gleichen Winkel zueinander. Der Nachteil des reversiblen Ansatzes ist jedoch, dass dafür womöglich viele Bits benötigt werden, wenn man die Abbildungen nicht zuvor zusammenfassen kann. Theoretisch kann der adiabatische Quantencomputer auch universell sein, nur ist dazu ideal eine ungestörte Umgebung Voraussetzung, was in Realität nicht erreicht werden kann. Es verbleiben Optimierungsprobleme, die über den Hamiltonoperator abgebildet werden können: physikalische Prozesse möchten den energetisch niedrigsten Zustand zu erreichen. Ein Beispiel sind hier Minimalflächen, wie sie von Seifenhäuten und Seifenblasen angenommen werden- und auch zum Bau des Olympiageländes in München genutzt wurden. Im Schülerlabor für Mathematik in Karlsruhe kann man auch viele Experimente dazu durchführen. Wenn man ein Optimierungsproblem lösen möchte, so sind lokale Minima ein Problem- in ihrer Umgebung erscheinen sie als Lösung, sie sind es jedoch insgesamt betrachtet nicht. Eine Möglichkeit die lokalen Minima zu umgehen ist das Verfahren des Simulated Annealing. Hier wird durch externe Störquellen begünstigt, dass lokale Minima verlassen werden, um das globale Minimum zu erreichen. In Quantensystemen spielt hier beim Quantum Annealing zusätzlich der Tunneleffekt eine besondere Rolle, wodurch die Störung noch leichter von lokalen Minima hinweg streut. Dadurch ist das Quantum Annealing prinzipiell und aus der Theorie schneller- oder zumindest nicht langsamer- als das Simulated Annealing. Dabei ist das Quantum Annealing natürlich nur auf einem Quantencomputer effizient umsetzbar. Das ist dabei ein Beispiel für eine Quantensimulation auf einem Quantencomputer in dem Forschungsfeld, das sich mit der Abbildung und Simulation von Quantensystemen befasst. Damit ist der adiabatische Quantencomputer auf eine kleinere Klasse von lösbaren Problemen beschränkt, jedoch soll er dieses mit einer erheblichen höheren Anzahl von Qubits durchführen können- zur Zeit der Aufnahme waren dies mit dem D-Wave Two etwa 512 Qubits. Die Frage, ob diese adiabatischen Quantencomputer mit dieser großen Anzahl von Qubits wirklich als Quantencomputer arbeiten, wurde wissenschaftlich diskutiert: Im Artikel Evidence for quantum annealing with more than one hundred qubits legen die Autoren dar, dass der betrachtete adiabatische Quantencomputer starke Anzeichen für die tatsächliche Umsetzung des Quantum Annealing zeigt. In wie weit jedoch nun eine quantenbedingte Beschleunigung feststellen ist, diskutieren T. Rønnow und Mitautoren in der Arbeit Defining and detecting quantum speedup. Sie erhielten das ernüchternde Ergebnis, dass eine Beschleunigung durch Nutzung des betrachteten Quantensystems nicht eindeutig nachgewiesen werden konnte. Dagegen argumentierten V. Denchev et al. in What is the Computational Value of Finite Range Tunneling?, dass eine 100'000'000-fache Beschleunigung mit hoher Wahrscheinlichkeit gegenüber einem Einprozessor-System nachgewiesen werden kann. Ein Problem bei der Analyse ist, dass die betrachteten Algorithmen für den Quantencomputer in den Bereich der probabilistischen Algorithmen fallen, die Ergebnisse also eine Fehlerwahrscheinlichkeit besitzen, die durch mehrfache Ausführung verringert werden kann. In der Kryptographie werden probabilistische Primzahltests sehr häufig eingesetzt, die auch in diese Klasse der Algorithmen fallen. So wurde im ersten Paper das Verhalten des Quantencomputers in einer Vielzahl von Versuchen mit simulierten Algorithmen verglichen und mit hoher Wahrscheinlichkeit festgestellt, dass der D-Wave-Rechner tatsächlich den Quantum Annealing Algorithmus ausführt. Über den D-Wave-Rechner ist bekannt, dass die einzelnen Qubits durch supraleitende Ringe abgebildet sind und die beiden Stromlaufrichtungen die superpositionierten Zustände darstellen. Die Kopplung zwischen Qubits und nach außen erfolgt durch Spulen, die über die entstehenden Magnetfelder mit den Strömen in den Ringen interagieren. Die Kopplung zwischen Qubits wird damit durch die parametrisierte Kopplung der Spulen realisiert. Für klassische Algorithmen und parallelisierte Computersysteme beschreibt der Begriff des Speedup die Effizienzsteigerung durch Nutzung einer erhöhten Parallelisierung. Je nach Algorithmus gibt es nach Amdahls Gesetz logische Grenzen, wo weitere Parallelisierung keine Gewinn mehr erzielt. Entsprechend besteht der Wunsch den Begriff des Quantum Speedup analog zu definieren und nachzuweisen: Diesen Ansatz verfolgten T. Rønnow und Mitautoren und definierten verschiedene Klassen von Quantum Speedup, wobei der adiabatische D-Wave Quantencomputer für sie nur Anzeichen für ein potentielles Speed-up ergab. Das ist ein ernüchterndes Ergebnis, wobei die Autoren klar weiteren Forschungsbedarf sahen. Hier war das Paper von V. Denchev und Mitautoren eine große Überraschung, wo dem D-Wave 2X Rechner mit hoher Wahrscheinlichkeit eine Beschleunigung von 10^8 nachgesagt wurde. Neben den Annealing-Verfahren kam hier auch Quantum Monte Carlo zum Einsatz. Im Ergebnis erhielten sie für die Annealing-Verfahren ein asymptotisches Speed-Up, das sich für größere Problemstellungen einstellt, für Quantum Monte Carlo eine von der Problemgröße unabhängige Beschleunigung gegenüber einem klassischen Single-core Rechner. Diese Aussagen trafen aber schnell auf Widerstand und den Nachweis, dass ein im Paper betrachtetes Problem mit anderen Algorithmen teilweise auf einem klassischen Rechner vielfach schneller gelöst werden kann als auf dem Quantencomputer. Literatur und weiterführende Informationen S. Boixo, et al.: Evidence for quantum annealing with more than one hundred qubits, Nature Physics 10.3: 218-224, 2014. T. Rønnow, et al.: Defining and detecting quantum speedup, Science 345.6195: 420-424, 2014. V. Denchev, et al.: What is the Computational Value of Finite Range Tunneling? arXiv preprint arXiv:1512.02206, 2015. R. Harris, R., et al.: Compound Josephson-junction coupler for flux qubits with minimal crosstalk, Physical Review B 80.5: 052506, 2009. S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen E. Dittrich: Schülerlabor, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 103, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/schuelerlabor Bernd Fix: Post-Quantum Krypto, Afra-Berlin.de, Vortrag am 13.12.2013. F. Rieger, F. von Leitner: Fnord Jahresrückblick, 32c3, Vortrag am 29.12.2015. S. Aaronson: Google, D-Wave, and the case of the factor-10^8 speedup for WHAT? Blog-Post mit Updates 16.5.2013-16.12.2015. Quantum Annealing Solver für den Laptop
9/15/2016 • 1 hour, 19 minutes, 16 seconds
Lehramtsausbildung
Im Bundesland Baden-Württemberg (BW) ist die Ausbildung von Lehrerinnen und Lehrern für verschiedene Schulformen unterschiedlich geregelt. Für Lehrpersonen, die am Gymnasium Schülerinnen und Schüler bis zum Abitur begleiten wollen, ist die Ausbildung an den Universitäten vorgesehen, alle anderen erhalten ihre Ausbildung an den Pädagogischen Hochschulen (PH). Auch an unsere Fakultät kommen Studierende mit dem Ziel, später an Gymnasien Mathematik zu vermitteln. Es ist deshalb höchste Zeit, auch einmal über die Lehramtsausbildung an unserer Fakultät zu reden. Andreas Kirsch begleitet die Organisation der Lehramtsstudiengänge schon viele Jahre und war deshalb Gudruns Wunsch-Gesprächspartner zu diesem Thema. Prinzipiell müssen Lehramtskandidaten mindestens zwei Fächer studieren, weshalb ihre Ausbildung (und ihr Abschluss) nur zum Teil in den Händen unserer Fakultät liegen kann. Generell ist der Lehramtsstudiengang deshalb auch durch eine Ordnung geregelt, die für das ganze KIT (alle Fakultäten) gilt und sich an klaren Vorgaben des BW-Kultusministeriums orientieren muss. Hier wird dann auch festgelegt, wie groß der Anteil von pädagogischen/psychologischen Veranstaltungen ist, der neben den beiden Fachstudien-Anteilen absolviert werden muss. Viele Jahrzehnte war die Gymnasial-Lehramts-Ausbildung in BW an den Universitäten so geregelt, dass in den ersten Jahren das Studium Diplom und Lehramt Mathematik quasi identisch waren - und das in zwei Fächern. Die Idee dahinter war, dass Personen, die das Bild von Mathematik in den Köpfen unserer Kinder prägen, selbst kompetente Mathematiker und darüber hinaus von ihrem Fach begeistert sind. Das Lehramtsstudium endete mit dem ersten Staatsexamen und wurde über eine anschließende Schulpraxis-orientierte Ausbildung im Referendariat fortgesetzt, die mit dem zweiten Staatsexamen beendet wurde. Vor Ablegen des ersten Staatsexamens war auch das Anfertigen einer wissenschaftlichen Arbeit in einem der Unterrichtsfächer oder in Pädagogik verpflichtend. Schon immer gehörte zur Lehramtsausbildung auch die Vermittlung von Didaktik im Fach Mathematik. Da es in BW keine Professuren für Didaktik der Mathematik an den Universitäten gibt, wurden und werden für diese Veranstaltungen häufig Gastdozenten gewonnen. Seit 2008 änderte sich diese traditionelle Lehrerbildung an den Universitäten in BW Stück für Stück in verschiedenen Aspekten grundlegend. Zunächst wurde der Anteil der Fachdidaktik sehr stark erhöht (was zwangsläufig bedeutet, dass sich der wissenschaftliche Anteil im Faches verringerte, da das Studium nicht verlängert wurde) - inklusive eines verpflichtenden Praxis-Semesters von 13 (inzwischen 12) Wochen an einer Schule. Mit Hilfe dieses Praktikums können angehende Lehrpersonen rechtzeitig ausprobieren, ob der Schulalltag "etwas für sie ist". Etwas später wurden die Lehrinhalte in sogenannte Module gegliedert, die in der Regel schon im Verlauf des Studiums (nach Absolvieren des Moduls) geprüft werden. Damit wurde die Rolle des ersten Staatsexamens gründlich verändert. Seit dem Studienbeginn im Wintersemester 2015/16 ist der Studiengang aufgeteilt in einen ersten Teil, dem Bachelor of Education, und einen zweiten Teil,der zum Abschluss Master of Education führt. Der Masterabschluss hat dabei das erste Staatsexamen vollständig abgelöst. Wenn man heute den wissenschaftlichen Mathematik-Anteil des Studiums Lehramt Mathematik anschaut, ist er etwa so hoch wie in den Bachelor-Studiengängen Mathematik. In Karlsruhe haben wir einige dieser Veränderungen in der Lehramts-Ausbildung dadurch aufgefangen, dass die Abteilung für Didaktik vergrößert wurde und sehr erfinderisch neuartige fachdidaktische Angebote entwickelte (und entwickelt), die nicht nur den Studierenden etwas bringen. In enger Zusammenarbeit mit den Schulen in Karlsruhe und dem Schülerlabor können bei uns angehende Lehrpersonen z.B. mit besonders interessierten Schülern arbeiten oder anhand von Projekten im Schülerlabor Unterricht in sehr unterschiedlichen Formen entwickeln und erproben. Es wurden außerdem einige speziell für die Lehramtsstudierenden konzipierte Vorlesungen eingeführt. Andreas Kirsch ist seit vielen Jahren als Professor an der Fakultät für Mathematik in Karlsruhe tätig. Zu den Aufgaben der von ihm geleiteten Arbeitsgruppe gehört die Mathematikausbildung von Maschinenbauern, Bauingenieuren, Verfahrenstechnikern und den angehenden Ingenieuren in verwandten Gebieten. Sein mathematisches Spezialgebiet sind inverse Probleme. Das ist ein sehr komplexes Gebiet zwischen Analysis und Numerik mit vielen Anwendungen. Einige dieser Anwendungen waren auch schon Gesprächsthema in unserem Podcast: Unsichtbarkeit, Erdölsuche, Erdbeben und Optimale Versuchsplanung, Splitting Waves. Literatur und weiterführende Informationen Antworten auf oft gestellte Fragen rund ums Lehramtsstudium in Karlsruhe Studienberatung am KIT und in der Fakultät zum Lehramtsstudium Zentrum für Lehrerbildung am KIT Lehrer online in BW Landes Bildungsserver BW
8/11/2016 • 1 hour, 1 minute, 49 seconds
Schülerlabor
Ernestina Dittrich ist Studiendirektorin und hat Mathematik, Physik und Informatik am Gymnasium unterrichtet. Sie arbeitete außerdem am Studienseminar in Karlsruhe, ist Fachberaterin am Regierungspräsidium Karlsruhe und wurde 2005 an unsere Fakultät geholt, um die Abteilung für Didaktik zu verstärken und neue Ideen zu verwirklichen. Dieses Jahr geht sie in den Ruhestand und so wurde es höchste Zeit, ein Gespräch über das Schülerlabor Mathematik und die Entwicklung bis heute zu führen. Frau Dittrich hatte sich schon lange vor ihrem Wechsel an unsere Fakultät mit der Idee getragen, dass wie in der Physik auch in der Mathematik Experimente den Stoff auf neuartige Weise zugänglich machen könnten. Ist das Schulfach Mathematik meist polarisierend also entweder Horror- oder Lieblingsfach so stünde doch ein entdeckender und spielerischer Zugang ohne Formeln allen gleichermaßen offen. Das wurde nun seit 2005 an unserer Fakultät Stück für Stück verwirklicht. Insgesamt wurden 90 mathematische Experimente zusammengetragen. Es war das erste seiner Art in Baden Württemberg und lange Zeit auch das einzige. Von der 3.-12. Klasse sind Schülerinnen und Schüler aller Schulformen oder auch Lehrergruppen bzw. Referendare vom Studienseminar und Lehramtsstudierende willkommen. An je einem Freitag Nachmittag im Monat steht die Tür sogar für alle interessierten offen. Darüber hinaus gehen Exponate auch auf Reisen, z.B. zur Kinderuni, zum Wissenschaftsfestival EFFEKTE im Schlosspark oder zu anderen Wissenschaftsfesten wie im Luisenpark in Mannheim oder im Europapark Rust. Die weiteste Reise führte bisher zum Science Festival nach Abu Dhabi. Das Schülerlabor wird sehr gut angenommen. Schon über 1000 Schulklassen haben es besucht. In der Regel dauert eine Veranstaltung 90 min. Am Anfang steht eine Einführung in drei wichtige Experimente - dann dürfen sich alle frei bewegen. Für Fragen gibt es stets Betreuung durch Mitarbeiterinnen der Abteilung für Didaktik. Die Lehrpersonen der Schulklassen sind außerdem mit dabei. Alle Versuche sind kurz und knapp beschrieben und es gibt einen Kasten mit Tipps, wenn man allein einfach nicht weiterkommt. Natürlich geht es dabei meist lebhaft zu: Die Schülerinnen und Schüler unterhalten sich über Lösungsversuche, es gibt Jubelgeschreie, wenn etwas geklappt hat und an einigen Stationen müssen sich die Kinder auch bewegen, um die Aufgaben zu lösen. Nachdem das Labor für die ersten Jahre sein Domizil in der Hertzstraße hatte, ist es nun seit dem Umzug der Fakultät ins renovierte Kollegiengebäude Mathematik endlich auch für alle Mitarbeiter und Gäste der Fakultät sichtbar und spürbar, welche Arbeit hier stattfindet. Im Unterschied zu ähnlichen Angeboten in Museen ist die Zusammenstellung der Experimente und Exponate didaktisch nach verschiedenen Aspekten durchdacht. Z.B. gibt es viele verschiedenartige Angebote rings um das Thema platonische Körper (inkl. eines Workshops). Während des Gespräches wurden folgende Exponate angesprochen: Die Unendlichkeit (realisiert mit Spiegeln) Ich bin eine Funktion (ein Bewegungsspiel) Glockenkurve (Normalverteilung als Grenzprozess für Bernoulli-Experimente) Minimalhäute (Seifenhäute um Gestelle aus platonischen Körpern) Der Besuch im Schülerlabor ist kostenlos. Die Einrichtung und die nötigen Mitarbeiterstellen wurden bisher vor allem von der Hector Stiftung gefördert. Inzwischen gibt es von der Abteilung für Didaktik noch eine ganze Anzahl weiterer Angebote, die zum Teil auch das Schülerlabor nutzen. So ist das Labor ein Lehr-Lern-Labor in der Ausbildung der Lehramtsstudierenden, d.h. die Experimente werden in der Fachdidaktik-Ausbildung verwendet, um didaktische Konzepte für die Umsetzung der mathematischen Sachverhalte und Kompetenzen im Unterricht zu entwickeln. Es gibt bisher 15 Workshops für verschiedene Altersstufen (Dauer je 90 min), die Schulklassen und andere Gruppen buchen können. Die sogenannten Mathekids (7./8. Klasse) und Matheprofis (9./10. Klasse) sind ein Schuljahr lang jede Woche für 90 min in der Fakultät, um im Rahmen der Begabtenförderung Workshops zu erleben. Diese werden von zwei erfahrenen Lehrkräften und von Lehramtsstudierenden gehalten. Die Studierenden gewinnen Praxiserfahrung während ihrer Fachdidaktikausbildung. Die Kinder entwickeln durch kleine Forschungsaufträge dabei auch neue Workshops selbst. Für zwei dieser Projekte haben die Gruppen sogar einen Preis für junge Forscher - den sogenannten OsKarl gewonnen. Literatur und weiterführende Informationen Alle Schülerlabore am KIT Begabtenförderung am KIT Fotos vom girls' day 2015 im Schülerlabor
8/4/2016 • 25 minutes, 48 seconds
Metrische Geometrie
Petra Schwer ist seit Oktober 2014 Juniorprofessorin an unserer Fakultät. Sie arbeitet im Institut für Algebra und Geometrie in der Arbeitsgruppe Metrische Geometrie. Ab Oktober 2016 startet in diesem Institut ein neues Graduiertenkolleg mit dem Titel Asymptotic Invariants and Limits of Groups and Spaces und Petra Schwer freut sich darauf, dort viele mit ihrer Begeisterung anstecken zu können. Ihr Weg in die Algebra war nicht ganz direkt: Sie hat zunächst Wirtschaftsmathematik in Ulm studiert. Ein Wechsel an die Uni Bonn ebnete den Weg ins etwas abstraktere Fahrwasser. Zwei Ausflüge in die Industrie (zwischen Diplom und Promotionszeit und in der Postdoc-Phase) haben ihre Entscheidung für die akademische Mathematik bekräftigt. Im Gegensatz zur Differentialgeometrie, die von Ihrem Ursprung her auf analytischen Methoden und Methoden der Differentialrechnung (wie zum Beispiel des Ableitens) beruht, untersucht die Metrische Geometrie Mengen mit Abstandsfunktion. Darunter fallen auch die klassischen Riemannschen Geometrien, aber auch viel allgemeinere geometrische Strukturen, wie zum Beispiel Gruppen oder Graphen. Eine Metrik ist nichts anderers als eine Funktion, die einen Abstand zwischen zwei Punkten definiert. Die Euklidische Geometrie (in zwei bzw. drei Dimensionen) ist sicher allen aus der Schule bekannt. Sie ist ein Beispiel eines Geometriemodells in der metrischen Geometrie. Euklid versuchte erstmals Geometrie von Ihren Grundbausteinen her zu beschreiben. Er hat sich gefragt: Was ist ein Punkt? Was ist eine Gerade? Wie lässt sich der Abstand eines Punktes zu einer Geraden definieren? Schließlich stellte er eine Liste von grundlegenden Objekten sowie deren Eigenschaften und Beziehungen auf (Axiome genannt) die eine Geometrie erfüllen soll. Diese Axiome sind dabei die Eigenschaften, die sich nicht aus anderen ableiten lassen, also nicht beweisbar sind. Eines dieser Axiome besagte, dass durch einen festen Punkt genau eine Gerade parallel zu einer vorgegebenen anderen Geraden verläuft. Es entbrannte ein Jahrhunderte dauernder Streit darüber, ob sich dieses Parallelenaxiom aus den anderen aufgestellten Axiomen ableiten lässt, oder ob man diese Eigenschaft als Axiom fordern muss. Sehr viel später wurde klar, dass der Streit durchaus einen wichtigen und tief liegenden Aspekt unserer Anschauungsgeometrie berührte. Denn es wurden gleich mehrere Mengen (mit Abstandsfunktion) entdeckt, in denen diese Eigenschaft nicht gilt. Deshalb nannte man die Geometrien, in denen das Parallelenaxiom nicht gilt nichteuklidische Geometrien. Ein sehr nahe liegendes Beispiele für nichteuklidische Strukturen ist z.B. die Kugel-Oberfläche (damit auch unsere Erdoberfläche) wo die euklidische Geometrie nicht funktioniert. In der Ebene ist der traditionelle Abstand zwischen zwei Punkten die Länge der Strecke, die beide Punkte verbindet. Das lässt sich im Prinzip auf der Kugeloberfläche imitieren, indem man einen Faden zwischen zwei Punkten spannt, dessen Länge dann anschließend am Lineal gemessen wird. Spannt man den Faden aber "falschrum" um die Kugel ist die so beschriebene Strecke aber nicht unbedingt die kürzeste Verbindung zwischen den beiden Punkten. Es gibt aber neben der klassischen Abstandsmessung verschiedene andere sinnvolle Methoden, einen Abstand in der Ebene zu definieren. In unserem Gespräch nennen wir als Beispiel die Pariser Metrik (oder auch SNCF oder Eisenbahnmetrik). Der Name beschreibt, dass man im französischen Schnellzugliniennetz nur mit umsteigen in Paris (sozusagen dem Nullpunkt oder Zentrum des Systems) von Ort A nach Ort B kommt. Für den Abstand von A nach B müssen also zwei Abstände addiert werden, weil man von A nach Paris und dann von Paris nach B fährt. Das verleiht der Ebene eine Baumstruktur. Das ist nicht nur für TGV-Reisende wichtig, sondern gut geeignet, um über Ordnung zu reden. Ebenso sinnvoll ist z.B. auch die sogenannte Bergsteiger-Metrik, die nicht allein die Distanz berücksichtigt, sondern auch den Aufwand (bergauf vs. bergab). Damit ist sie aber in den relevanten Fällen sogar asymmetrisch. D.h. von A nach X ist es "weiter" als von X nach A, wenn X oben auf dem Berg ist und A im Tal. Analog ist es wenn man mit dem Boot oder schwimmend mit bzw. gegen die Strömung oder den Wind unterwegs ist. Dann misst man besser statt der räumlichen Distanz die Kraft bzw. Energie, die man für den jeweiligen Weg braucht. Für Karlsruher interessant ist sicher auch die KVV-Metrik, die wie folgt beschrieben wird: Um den Abstand von einem Punkt A zu einem anderen Punkt B der Ebene zu messen, läuft man von A und B senkrecht zur x-Achse (und trifft diese in Punkten A', bzw B') und addiert zu diesen beiden Abständen den Abstand von A' zu B'. Anschaulich gesprochen muss man also immer erst von A zur Kaiserstrasse, ein Stück die Kaiserstraße entlang und dann zu B. Eben so, wie die KVV ihre Strecken plant. Zwischen einer Ebene und z.B. der Kugeloberfläche gibt es einfach zu verstehende und doch wichtige geometrische Unterschiede. Eine Strecke in der Ebene läßt sich z.B. in zwei Richtungen unendlich weit fortsetzen. Auf der Kugeloberfläche kommt nach einer Umrundung der Kugel die Verlängerung der Strecke an dem Punkt wieder an, wo man die Konstruktion begonnen hat. D.h. insbesondere, dass Punkte auf einer Kugeloberfläche nicht beliebig weit voneinander entfernt sein können. Es gibt außerdem genau einen Punkt, der genau gegenüber liegt und unendlich (!) viele kürzeste Wege dorthin (in jeder Richtung einen). Verblüffend ist dabei auch: So verschieden sich Ebene und Kugeloberfläche verhalten, in einer fußläufigen Umgebung jedes Punktes fühlt sich die Erdoberfläche für uns wie ein Ausschnitt der Ebene an. Mathematisch würde man sagen, dass sich eine Kugel lokal (also in einer sehr kleinen Umgebung) um einen Punkt genauso verhält, wie eine Ebene lokal um einen Punkt. Die Krümmung oder Rundung der Kugel ist dabei nicht spürbar. Versucht man die gesamte Kugel auf einer ebenen Fläche darzustellen, wie zum Beispiel für eine Weltkarte, so kann dies nur gelingen, wenn man Abstände verzerrt. Für unsere ebenen Darstellungen der Erdkugel als Landkarte muss man also immer im Hinterkopf behalten, dass diese (zum Teil stark) verzerrt sind, d.h. Längen, Winkel und Flächen durch die ebene Darstellung verändert werden. Ein wichtiges Konzept zur Unterscheidung von (z.B.) Ebene und Kugeloberfläche ist die eben schon erwähnte Krümmung. Es gibt verschiedene Definitionen - insbesondere, wenn man Flächen eingebettet im dreidimensionalen Raum untersucht. Dabei hat ein flachgestrichenes Blatt Papier keine Krümmung - eine Kugeloberfläche ist gekrümmt. Um das formal zu untersuchen, werden Tangentialflächen an Punkte auf der Oberfläche angelegt. In einer kleinen Umgebung des Berührpunktes wird die Abweichung der Tangentialebene von der Oberfläche betrachtet. Bei der Kugel liegt die Kugeloberfläche immer auf einer Seite von der Tangentialebene. Das muss nicht so sein. Die Tangentialfläche kann z.B. in einem Sattelpunkt die zu untersuchende Fläche durchdringen - d.h. in unterschiedliche Richtungen ist die Krümmung entweder positiv oder negativ. Man braucht aber eigentlich gar keine Tangentialflächen, denn auch Winkelsummen verraten uns etwas über die Krümmung. In der Ebene ergeben die drei Innenwinkel jedes Dreiecks zusammen addiert immer 180 Grad. Auf der Kugel, also auf einer gekrümmten Fläche, sind es immer mehr als 180 Grad. Legt man zum Beispiel einen Punkt in den Nordpol und zwei weitere so auf den Äquator, dass die Verbindungsstrecken zum Nordpol einen Winkel von 90 Grad einschließen, so hat das entstehende Dreieck eine Winkelsumme von 270 Grad. Etwas komplexer ist die Situation bezüglich Krümmung auf einem Torus (der sieht aus wie ein Schwimmreifen oder Donut). Betrachtet man das lokale Krümmungsverhalten in Punkten auf der Donut-/Torusoberfläche ist sie außen so gekrümmt wie eine Kugel, innen sieht sie aber aus wie eine Sattelfläche. Es läßt sich aber auch ein abstraktes Modell des Torus konstruieren, das genauso flach, wie die euklidische Ebene ist. Dazu wähle in der Ebene ein Quadrat mit fester Seitenlänge und klebe gedanklich die gegenüberliegenden Seiten (also oben und unten, sowie links mit rechts) zusammen. Man erhält so ein "periodisches" Quadrat: Wenn man auf einer Seite hinauswandert, kommt man gegenüber an der gleichen Stelle wieder in das Quadrat hinein. Dieses Objekt ist topologisch ebenfalls ein Torus, hat aber, weil das Quadrat Teil der Ebene ist, Krümmung 0. Literatur und weiterführende Informationen D. Hilbert, S. Cohn-Vossen: Anschauliche Geometrie, eine sehr schöne, (in weiten Teilen) auch mit wenig mathematischen Vorkenntnissen gut verständliche Einführung in viele verschiedene Bereiche der Geometrie. D. Burago, Y. Burago, S. Ivanov: A Course in Metric Geometry, eines der Standardlehrbücher über metrische Geometrie. Euklid, Elemente, Digitale Version der 5 Bücher von Euklid. Gromov: Metric Structures for Riemannian and Non-Riemannian Spaces. Das "grüne Buch" - Kursnotizen einer Vorlesung von Gromov, die später in Buchform gebracht wurden.
7/28/2016 • 42 minutes, 41 seconds
Schulwegoptimierung
Sven Müller ist Professor für Verkehrsbetriebswirtschaft im Studiengang Verkehrssystemmanagement an der HTW hier in Karlsruhe. Im Rahmen seiner Promotion an der TU Dresden in der Gruppe von Knut Haase begann er der Frage nachzugehen, welche Faktoren die Verkehrsmittelwahl für den Schulweg beeinflussen. Hintergrund dieser Frage war, dass zu der Zeit in Dresden die Schließung von Schulstandorten heiß diskutiert wurde. Die Notwendigkeit von Schulschließungen war dabei nicht umstritten, jedoch welche konkrete Variante die für alle beste Lösung darstellen würde. Hier war die Diskussion emotional stark aufgeladen, d.h. ein Modell, das bei der Planung des Schulnetzes für objektive Informationen sorgt, wäre ganz besonders hilfreich. Am besten mit klaren Empfehlungen für optimale Lösungen in Bezug auf Schulwege und deren Kosten. Der naheliegende und auch herkömmliche Indikator für so ein Modell ist eine Distanzminimierung. Dadurch lassen sich objektive Aussagen zu minimalen Transportkosten für die Schüler ermitteln. Jedoch stellte sich schnell heraus, dass verlässliche Aussagen dazu fehlten, welche Verkehrsmittel die Schüler anteilig wählen und wieso. Ebenso welche Schulen die Schüler selbst wählen würden und wieso. Deshalb war ein wichtiger Ausgangspunkt für das Forschungsthema eine sehr groß angelegte Schüler-Befragung, die von den Studierenden im Rahmen eines Seminares geplant und durchgeführt wurde. Durch das große Engagement war die Stichprobe schließlich sehr groß. Es wurden dabei Fragebögen in fast allen Schulen verteilt und die Ergebnisse in einer selbst konzipierten Datenbank gesammelt - gut aufbereitet für eine anschließende Auswertung und Optimierung. So war es möglich, aus diesen Daten Prognosen zur Verkehrsmittelwahl in Abhängigkeit von Distanz und Verkehrsmitteloptionen zu erstellen und über verschiedene Schließungsszenarien eine optimale Verteilung der Schulen (in Bezug auf Kosten für die Stadt) zu ermitteln. All das floß auch in die Promotion von Sven Müller ein. Als wichtiges Problem für die mathematische Behandlung der Optimierung erwies sich, dass die Optimierungslösung auf die Daten zurückwirkt. Das führt auf ein dynamisches Problem, das mit herkömmlichen Methoden nicht behandelt werden kann. Auch bei der ÖPNV-Planung von optimierten Liniennetzen tritt das Problem auf: Kürzere Reisezeiten und mehr Direktverbindungen führen z.B. zu einem höheren Fahrgastaufkommen. Mathematisch ausgedrückt heißt das die Nebenbedingungen werden dynamisch und das Problem wird in der Regel nichtlinear. Betriebliche Problemstellungen haben oft ein ähnliches Problem, d.h. die Daten bleiben nicht fix sondern sind abhängig von der gefundenen Lösung. Ein wichtiges Teilergebnis des Forschungsvorhabens von Sven Müller ist eine exakte lineare Reformulierung für das ursprünglich nicht-lineare Optimierungsmodell. Ein weiteres grundsätzliches Problem ist, dass die Nutzenfunktion hinreichend genau beobachtet werden müsste. Ideal wäre es, wenn nur noch weißes Rauschen im Störterm berücksichtigt werden muss, d.h. alle zufälligen Anteile sind wirklich nur zufällig und unverbunden mit den beobachteten Daten. Das ist in der Realität leider nicht möglich und so führen nicht beobachtete Anteile zu Kovarianzen im Modell, die nicht null sind. Anders ausgedrückt, ist der stochastische Anteil nicht nur weißes Rauschen. Nebenbei gewann er noch einige andere Erkenntnisse. Z.B. ist es für die Prognose der Fahrradnutzung nicht ausreichend, die Distanz als Maß zu nehmen, da es bergauf- bzw. bergab gehen kann und das für die Entscheidung mindestens ebenso wichtig ist wie die Entfernung. Dieser Frage geht er zur Zeit auch mit seinen Studierenden im Studiengang Verkehrssystemmanagement an der HTW nach. Zwei weitere Themen, an denen Sven Müller zur Zeit arbeitet, weil sich gute Anknüpfungspunkte aus den eben geschilderten neuen Optimierungsstrategien bieten, sind z.B. die Versorgungsplanung in der Medizin und die Planung der Pilgerströme in Mekka.Genauer gesagt geht es bei der Versorgungsplanung um Vorsorgeprogramme (Prävention). Durch eine hohe Attraktivität des Angebots soll erreicht werden, das möglichst viele Patienten freiwillig teilnehmen. Auch hier ist die gute Erreichbarkeit der Ärzte wichtig, aber auch ihre Attraktivität. Es gilt abzuwägen, wie viele Ärzte an dem Präventionsprogramm mit welcher Kapazität teilnehmen sollen. Einerseits aus Kostengründen natürlich möglichst wenige. Aber andererseits ist gerade die kurze Wartezeit auf einen Termin ein Garant dafür, dass der Termin auch wahrgenommen wird. Somit führt die Optimierung wieder auf ein dynamisches Problem. Viele Standorte führen zu kurzen Wegen und weniger "no shows". Aber viele Untersuchungen bei einem Arzt stärken seine Kompetenz - verlängern aber die zu erwartende Wartezeit. Leider führt das außerdem auf ein nicht konvexes Optimierungsproblem, d.h. die Existenz von Optima folgt nicht mit traditionellen Methoden (bei denen ist Konvexität eine zentrale Voraussetzung). In Mekka sind während einer reicht kurzen Zeit etwa 2-5 Millionen Pilger unterwegs, um Rituale durchzuführen wie die Umkreisung der Kaaba und die symbolische Steinigung des Teufels an drei Säulen. Um das Risiko von Zwischenfällen, bei denen in der Vergangenheit schon hunderte von Todesopfern zu beklagen waren, zu senken, wird das Verhalten der Pilger modelliert in Bezug auf Geschwindigkeit und Dichte. Anschließend werden rund 2 Millionen Pilger, Routen zugewiesen, die so berechnet sind, dass alle Routen möglichst kreuzungsfrei sind. Weiterhin erhalten die Pilger fest zugewiesene Steinigungszeiten, so dass die erwarteten Dichten möglichst unkritisch sind. Der Einfluss von bestimmten Fehlern, wie z.B. falsch gesetzte Zäune oder falsch interpretierte Anweisungen kann dabei nicht völlig ausgeschlossen werden und wird als Risikofaktor in der Auslastung der Routen berücksichtigt. Die Studierenden im Studiengang Verkehrssystemmanagement an der Hochschule Karlsruhe - Wirtschaft und Technik sind hier an forderster Forschungsfront dabei. Z.B. mit Experimenten zu Fußgänger-Verhalten. Denn auch hier ist eine gute Datenlage der Schlüssel zum Erfolg. Literatur und weiterführende Informationen S. Müller e.a.: Travel-to-school mode choice modelling and patterns of school choice in urban areas, Journal of Transport Geography 16 (2008) 342–357 S. Müller: Bildungsstandorte und demographischer Wandel, STANDORT 34 (2010) 6–10 S. Müller e.a: Exposing Unobserved Spatial Similarity: Evidence from German School Choice Data, Geographical Analysis 44 (2012) 65–86 K. Haase, S. Müller: Management of school locations allowing for free school choice, Omega 41 (2013) 847–855 K. Haase, S. Müller: Insights into clients’ choice in preventive health care facility location planning , OR Spectrum 37 (2015) 273-291 K. Haase e.a.: Improving Pilgrim Safety During the Hajj: An Analytical and Operational Research Approach Interfaces 46 (2016) 74-90
7/21/2016 • 36 minutes, 29 seconds
Hundert
Zur 100. Folge haben sich Gudrun und Sebastian bei Gudrun getroffen, um sich zum Jubiläum einfach mal in Ruhe über den Podcast, den Ursprung, was wir so erlebten und was vor uns liegt. Für Sebastian öffnete die Raumzeit-Folge zu Tandem-X die Augen, wieviel wissenschaftlicher Inhalt in einem Podcast übertragen werden kann. Schnell war Gudrun begeistert und nahm mit Sebastian die erste Folge zu ihrer Vorlesung über mathematische Modellbildung auf. Nach zwei weiteren Aufnahmen zur Aorta-Challenge und zur Unsichtbarkeit machten wir unsere ersten Versuche öffentlich. Schon früh stellte sich heraus, dass uns die Themen zur Mathematik nicht schnell ausgehen, da es so viele Abschlussarbeiten, Forschungsthemen und Vorlesungen gibt, die jeweils auch noch unter unterschiedlichen Sichtweisen betrachtet werden können. Im Storify sieht man, wie wir schon früh vielseitig unterstützt wurden und unsere Hörerzahl stieg schnell an: Ein besonderer Unterstützer war dabei Henning Krause, der uns eine Grußbotschaft sendete und ganz besonders die Qwirkle-Folge schätzt. Einen weiteren Gruß sandte uns Katrin Leinweber vom KonScience Podcast. Weitere Grüße erreichten uns aus Kanada von Anja Randecker aus unserer Folge zu Wilden Singularitäten, die nun in Toronto als Post-Doc weiter zu Translationsflächen forscht. Sehr haben wir uns auch über die Grüße aus dem Grünen von Martin Rützler gefreut, der selbst im Radio Mono Podcast, im DKG-Podcast und im Sendegarten regelmäßig zu hören ist, die deutschen GanzOhr-Wissenschaftspodcast-Treffen initiierte und die Wissenschaftspodcasts-Seite mit begründete. Neben Gesprächen über Vorlesungen, wie zur Analysis, Höhere Mathematik oder Digitale Währungen, hat nun Gudrun auch eine Vorlesung aufgenommen: Den Schnupperkurs zur Verkehrsmodellierung, der jeweils auf viele Gespräche im Podcast verweist. Bei Konscience gibt es interessante Konzepte zur Verknüpfung von Vortrag und Podcast, die auch auf Vorlesungen angewendet werden könnten. Ganz besondere Grüße erreichten uns von Lorenz Adlung, den wir in der Folge 39 zur Systembiologie im Podcast hatten. Lorenz ist auch ein begnadeter Science-Slammer, wie auch Anastasia August aus unserer Folge 37 zum Metallschaum. Sie ist weiterhin als Mathematikerin am Institut für Angewandte Materialien, wo sie aktuell an Gradierten Schäumen und Magischen Schäumen forscht und ein Graduiertenkolleg vorbereitet. Sebastian hat die Folge 98 zu Primzahlen und Gruppen sehr gefallen, wo Rebecca Waldecker den Einstieg in die Algebra und Zahlentheorie sehr anschaulich beschrieben hat. Besonders spannend sind auch Themen, die inzwischen zu Ausgründungen geführt haben: Markus Dahlem in M-Sense mit dem Thema Migräne, Tobias Hahn mit der Chromatographie, sowie Carlos Falquez, Iris Pantle und Balazs Pritz zu Strömungslärm. Im Zuge des SFB zu Wellenphänomenen haben wir auch ein Special zum Cooking Math Projekt durchgeführt, wo durch Gespräche die vielseitigen Kunstobjekte zur Mathematik dargestellt werden. Ein persönliches Special war für uns aber auch die Nullnummer in Folge 73, die wir mit Nele Heise aufnehmen konnten. Ebenso haben wir uns sehr über die Grüße von Melanie Bartos gefreut, die mit ihrem Podcast Zeit für Wissenschaft immer wieder über spannende wissenschaftliche Themen aus der Uni Insbruck berichtet. Natürlich haben uns auch Annika Brockschmidt und Dennis Schulz vom Science Pie Podcast aus Heidelberg einen wunderschönen Gruß gesendet, und auch Nora Ludewig und Markus Völter vom Omega Tau Podcast schlossen sich mit einer lieben Botschaft an. Und wir freuen uns die beiden im Oktober beim GanzOhr2016-Treffen der Wissenschaftspodcasts wieder zu sehen. Unsere Audiodaten laufen inzwischen durch die Open Source Podcast Audio Chain (OSPAC). Einen Einblick kann man im Vortrag zu OSPAC auf der Subscribe7 oder dem erweiterten Vortrag zu OSPAC auf der GPN16 erhalten, und auch LIGO-Rohdaten auswerten. Informationen zum Aufnehmen von Podcasts mit dem iPhone habe ich auf dem Sendegate hinterlegt. Spannend waren auch die Podcast Nachbarschafts-Graphen, die nun auch eine neue Fortsetzung auf dem FYYD Podcast-Verzeichnis. Wir haben einige Überraschungen in den bisher beliebtesten Folgen und am längesten gehörten Folgen im Modellansatz- welches dies sind, muss man sich beim Interesse im Podcast anhören.
7/14/2016 • 2 hours, 1 minute, 38 seconds
Kointegrierte Prozesse
Markus Scholz hat gerade seine Dissertation Estimation of Cointegrated Multivariate Continuous-Time Autoregressive Moving Average Processes an der KIT-Fakultät für Mathematik verteidigt. Gudrun ergriff die Gelegenheit, mit ihm über die Idee und Anwendungsmöglichkeiten von Zeitreihen-Modellen zu sprechen. Prinzipiell stehen Zeitreihen einerseits für zeitlich geordnete (Mess-)Daten, die z.B. durch Abtasten (wiederholtes Messen) eines Vorgangs in der Realität entstehen. Andererseits werden sie in der Statistik als Ergebnis eines Stochastischen Prozesses interpretiert, der diese Zeitreihe als eine seiner Realisierungen erzeugt. Der stochastische Prozess ist hierbei ein Modell und soll die wichtigsten Eigenschaften der Daten erfassen. Er soll auch dazu dienen, zuverlässige Schätzungen zu liefern, wie sich die Zeitreihe wahrscheinlich in die Zukunft fortsetzt. Mitunter interessieren hier sogar nur so oberflächliche Informationen wie Saisonalität und Trends. Ein Aspekt, der im Titel der Arbeit von Markus Scholz als "Moving Average" beschrieben ist, ist die Eigenschaft, dass die Werte der Zeitreihe vor allem durch die letzten davor liegenden Meßpunkte beeinflusst sind und die "Erinnerung" an weiter in der Vergangenheit liegende Zustände abklingt. Im Modell ist hier stets eine Zufallsquelle integriert, die man sich wie ein Auswürfeln pro Zeitpunkt vorstellen kann. Wie erfolgt hier die Zuordnung zwischen Datenreihe und stochastischem Modell? In der Regel basiert die Wahl auf der Erfahrung über zuvor benutzte Modelle in ähnlichen Zusammenhängen und auf den bekannten Eigenschaften der Modelle. Anschließend müssen jedoch stochastische Tests belegen, dass die Zuordnung tatsächlich korrekt ist. Markus Scholz hat sich mit stochastischen Prozessen beschäftigt, die kontinuierlich in der Zeit sind statt - wie bisher beschrieben - diskret. Sie eignen sich z.B. zur Modellierung von Temperaturverläufen. Prinzipiell nimmt man dabei an, dass eine hoch genug gewählte Abtastrate den Übergang von diskreten Messungen zu einem als stetig angesehenen Prozess unkritisch macht. Der Aspekt, der ihn hier vor allem beschäftigt hat, war die Erweiterung bekannter Modelle um die Eigenschaft der Nicht-Stationarität. Das heißt kurz gesagt, die Grundeigenschaften des Prozesses können sich über die Zeit ändern. Das kennen wir ja auch von der Temperatur: Einerseitzs durchlaufen tägliche Tiefst-, Höchst- oder Mittelwerte der Temperatur im Jahresverlauf eine typische Kurve für eine betrachtete Region. Andererseits kann im konkreten Jahr ein untypischer Verlauf vorliegen und es ist gar nicht so leicht zu quantifizieren, ob es sich um eine untypische Beobachtung handelt oder sich z.B. die Mittelwerte tatsächlich statistisch signifikant ändern. Anders gesagt führt die Nicht-Stationarität im Modell auf Probleme bei zugehörigen Schätzungen, die in der Regel schwer zu lösen sind. Deshalb hat Markus Scholz zunächst einen handhabbaren Spezialfall ausgewählt, die sogenannten kointegrierte Prozesse. Als stochastische Quelle - dienen ihm Lévy-Prozesse, die Sprünge zulassen. Die einfachste Zufallsquelle wären Brownsche Bewegungen, die aber nur stetig (d.h. ohne Sprünge) möglich sind. Lévy- Prozesse sind flexibel haben jedoch nützliche Eigenschaften, die ihre Behandlung erleichtern, wie z.B. stationäre Inkremente. Grundidee der Arbeit war es, vorhandene Resultate für zeitdiskrete nicht-stationäre Modelle und zeitstetige stationäre Modelle so zu vereinen, dass ein neues zeitstetiges und nicht-stationäres Modell mit gut studierbaren Eigenschaften entsteht. Hierbei wurden Zustandsraummodelle verwendet, welche durch Matrizen charakterisiert werden, die die Eigenschaften des Modells bestimmen. Eine entscheidende Beweisidee beruht darauf, dass die Matrizen so transformiert werden können, dass ein Entkopplung in stationäre und nicht-stationäre Anteile erfolgt und die Benutzung der jeweils bekannten Resultate auf den zusammengesetzten Prozess möglich wird. Besonders wertvoll sind hier die entwickelten Schätzverfahren für kointegrierte Prozesse. In der Praxis haben die Zeitreihen meist einen ungefähren Gleichlauf über die Zeit, damit sind sie gemeinsam integriert, also kointegriert. Der Begriff Integration bedeutet, dass die nicht-stationären Zeitreihen durch Differenzenbildung auf neue stationäre Zeitreihen zurückgeführt werden können. Die Schätzmethode baut auf derMaximum-Likelihood-Schätzung auf, welches anschließend mit Hilfe eines numerisches Optimierungsverfahren gelöst wird. Für die Schätzmethode konnte die Konsistenz nachgewiesen werden, d.h. Schätzfolgen mit immer mehr Daten werden immer besser (Konvergenz in Wahrscheinlichkeit gegen wahren Wert). Referenzen C. Granger: Nobel Prize Lecture, 2003. R. Stelzer: CARMA Processes driven by Non-Gaussian Noise, TUM-IAS Primary Sources - Essays in Technology and Science, 1 no.1, 2012. E. Schlemm and R. Stelzer: Quasi maximum likelihood estimation for strongly mixing state space models and multivariate Lévy-driven CARMA processes, arXiv, 2012.
7/7/2016 • 25 minutes, 22 seconds
Primzahlen und Gruppen
Rebecca Waldecker ist Professorin für Algebra an der Martin-Luther-Universität Halle-Wittenberg. Sie besuchte Karlsruhe aus Anlass einer Konferenz zu Ehren von Richard Weiss und Gudrun nutzte die Gelegenheit, um mit ihr über das Faszinosum und die Nützlichkeit von Primzahlen und ihr Forschungsgebiet der Gruppentheorie zu sprechen. In der Vergangenheit gab es verschiedene Definitionen für Primzahlen, die sich über die Zeit zu dem heute gebräuchlichen geschärft haben: Eine Primzahl ist eine natürliche Zahl, die genau zwei verschiedene natürliche Teiler hat - sich selbst und 1.Die Zahl 1 ist damit keine Primzahl, aber z.B. ist die Zahl 2 prim sowie die Zahlen 3, 5, 7, 11, 13, 17, 19 usw. Ein grundlegendes Resultat besagt, dass sich alle natürlichen Zahlen eindeutig in Produkte von Primzahlen aufteilen lassen. Zahlen, die selbst nicht prim sind, nennt man deshalb zerlegbar bzw. zusammengesetzt, weil man sie mit Hilfe dieser Darstellung in die zugehörigen Primfaktoren aufteilen kann bzw. man diese als Grundbausteine der natürlichen Zahlen ansehen kann. Es gibt in diesem Zusammenhang viele interessante Fragen. Zum Beispiel: Wie viele Primzahlen gibt es? Gibt es beliebig große Primzahlzwillinge, d.h. zwei Primzahlen, die voneinander nur den Abstand 2 haben (wie z.B. 11 und 13)? Wie kann ich eine Zahl als Primzahl erkennen? Wie kann ich für jede Zahl (effektiv) die Zerlegung in Primfaktoren berechnen? Interessant ist, dass diese Fragen, die doch eher theoretisch und fast schon spielerisch wirken, heute eine große Relevanz erhalten, weil sich alle gebräuchlichen digitalen Verschlüsselungsverfahren (z.B. beim online-Banking) großer Primzahlen bedienen (je größere Primzahlen man verwenden kann, desto sicherer ist die zugehörige Verschlüsselung). Das liegt daran, dass es im Allgemeinen tatsächlich eine recht lange Rechenzeit braucht, um große Zahlen in mögliche Primfaktoren zu zerlegen. Wenn man sich jedoch davon löst, Primzahlen und Teiler nur auf natürliche Zahlen zu beziehen, wird die Welt noch ein wenig interessanter. Besonders einfach und fast offensichtlich ist es bei der Ausweitung auf ganze Zahlen. In den ganzen Zahlen gibt es mehr Teiler: Zum Beispiel hat die Zahl 3 dort (neben 3 und 1) auch noch die Teiler -1 und -3. Man muss dann entscheiden, welches die Grundbausteine für ganze Zahlen sein sollen. Noch etwas allgemeiner ausgedrückt: Wenn der Begriff der Primzahl auf andere Zahlbereiche verallgemeinert wird, dann gibt es zwei Eigenschaften, die man als charakterisch für "prim" ansehen kann: Einerseits die "Unzerlegbarkeit", also die Eigenschaft, nur die offensichtlichen Teiler zu besitzen. Primzahlen haben aber auch die Eigenschaft (im Bereich der ganzen Zahlen), dass, wenn sie ein Produkt von Zahlen teilen, sie automatisch mindestens einen der Faktoren teilen. Auch diese Eigenschaft kann man zur Verallgemeinerung der Eigenschaft "prim" benutzen. Häufig ist es so, dass in der Übertragung der Idee auf Objekte, die die Struktur eines algebraischen Rings haben (d.h. grob gesprochen, man "rechnet" in ihnen mehr oder weniger so, wie wir es von den ganzen Zahlen kennen) die Unzerlegbarkeit mit dem Begriff "irreduzibel" verallgemeinert wird und dass die andere Eigenschaft (wenn man ein Produkt teilt, dann auch mindestens einen der Faktoren) mit "prim" oder "Primelement" verallgemeinert wird. In manchen Zahlbereichen fallen diese Begriffe zusammen. Zum Beispiel ist das bei den ganzen Zahlen so und bei den im Gespräch erwähnten Ganzen Gaußschen Zahlen. Die Ganzen Gaußschen Zahlen werden aus allen Punkten mit ganzzahligen Koordinaten in der Gaußschen Zahlenebene gebildet. Diese Ebene ist eine geometrische Interpretation der Menge der komplexen Zahlen - die beiden Achsen geben Real- und Imaginärteil der jeweiligen komplexen Zahl an. Wählt man alle ganzzahligen Punkte, so ergibt das eine Struktur, die geometrisch betrachtet ein Gitter ist, und die algebraisch betrachtet den ganzen Zahlen nicht unähnlich ist. Allerdings wird die Multiplikation etwas interessanter, deshalb ändern sich die Eigenschaften von Primzahlen im Ring der Ganzen Gaussschen Zahlen. 2 ist dort keine Primzahl, sondern hat neben den offensichtlichen Teilern 2,-2,1,-1,i,-i,2i,-2i auch noch die Teiler 1+i, 1-i und noch einige mehr. Alle Primzahlen, die beim Teilen durch 4 in den Rest 3 lassen, bleiben prim in . Zum Beispiel 3, 7 und 11. Alle Primzahlen, die beim Teilen durch 4 in den Rest 1 lassen, sind nicht mehr prim in , sondern bekommen dort interessante zusätzliche Teiler. Das liegt daran, dass diese Zahlen sich als Summe von zwei Quadraten schreiben lassen. Streng genommen geht es hier nicht um die Eigenschaft, prim zu sein, sondern um die Eigenschaft, irreduzibel zu sein (siehe oben). Aber im Ring der Ganzen Gaussschen Zahlen fallen diese Begriffe zusammen. Wer sich dafür interessiert, findet beispielsweise beim Suchen mit den Stichworten Zwei-Quadrate-Satz von Fermat und Normfunktion bei den Ganzen Gaußschen Zahlen viele weitere Informationen und Details. Für die Herleitung von effektiven Verfahren, die Primzahlen herausfischen (Primzahlsieb), ist es mitunter nützlich, auf bestimmte Eigenschaften von Primzahlen zurückzugreifen, statt stur alle Teiler zu probieren - von denen gibt es schon für mittelgroße Zahlen nämlich ganz schön viele und es wird selbst mit Hilfe schneller Computer recht zäh. Eine solche Eigenschaft ist im kleinen Satz von Fermat formuliert: Ist p eine Primzahl und ist a eine ganze Zahl, so gilt: und a haben beim Teilen durch p den gleichen Rest. Falls a nicht durch p teilbar ist, dann gibt es noch eine andere Version: hat beim Teilen durch p genau den Rest 1. Dies kann man zur Erkennung von Primzahlen ausnutzen: Ist n eine natürliche Zahl, die man auf Primalität untersuchen möchte, so wählt man sich zufällig eine Zahl a, die echt zwischen 1 und n liegt und die teilerfremd zu n ist (falls das nicht möglich ist, dann ist n=2 und man kann den Test sofort beenden). Nun haben wir also a und n und berechnen . Falls beim Teilen durch n dann der Rest 1 herauskommt, dann ist das Testergebnis "n ist wahrscheinlich prim.". Andernfalls ist das Testergebnis "n ist zusammengesetzt." Das Ergebnis "zusammengesetzt" ist immer richtig, aber das Ergebnis "prim" ist manchmal falsch. Bei den sogenannten Pseudoprimzahlen erscheint für manche Werte von a die Ausgabe "prim", obwohl die Zahl in Wirklichkeit zusammengesetzt ist. Noch schlimmer: Bei den sogenannten Carmichael-Zahlen ist es sogar so, dass für jede mögliche Zahl a, die man sich für den Test wählen könnte (mit den Einschränkungen von oben), der Test das Ergebnis "prim" ausgibt, obwohl die Zahl in Wirklichkeit zusammengesetzt ist. Solche "Unfälle" haben dazu geführt, dass man nach feineren Tests gesucht hat, die weniger Fehler machen. Ein Beispiel ist der Miller-Rabin-Test. Der erste Schritt ist dabei so ähnlich wie beim Fermat-Test, aber es gibt danach noch einen zweiten Schritt. Auf der Seite http://www.visual.wegert.com von Elias Wegert findet man viele wunderbare Illustrationen, manche davon haben mit Primzahlen zu tun. Hier sind noch mehr Tipps zum Stoebern und Weiterlesen: Literatur und weiterführende Informationen Chris K. Caldwell: The List of Largest Known Primes Home Page R. Waldecker, L. Rempe-Gillen: Primzahltests für Einsteiger, 2. Auflage. Springer, 2015. Auch in englisch erhältlich: Primality testing for beginners, Januar 2014 in der Serie Student Mathematical Library der AMS. E. Wegert: Visual Complex Functions, Birkhäuser, 2012. Agrawal, M., Kayal, N. und Saxena, K.: PRIMES is in P, Annals of Math. 160 (2004), No. 2, 781 - 793. Hardy, G.H.: A mathematician's apology, Cambridge University Press, 1992. Crandall, R. und Pomerance, C.: Prime Numbers: A computational perspective, Springer, 2005. Dietzfelbinger, M.: Primality Testing in Polynomial Time: from randomized algorithms to PRIMES is in P, Springer, 2004. Podcasts S.Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/digitale-waehrungen F. Januszewski: L-Funktionen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 55, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/l-funktionen F. Schmidt: RSA-Faktorisierung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 70, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/rsa-faktorisierung
6/30/2016 • 48 minutes, 13 seconds
Finanzen damalsTM
Auf der Gulasch Programmiernacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung und dem ZKM in Karlsruhe trafen sich Stephan Ajuvo und Sebastian Ritterbusch für einen Cross-Over Podcast vom damals TM Podcast und dem Modellansatz Podcast um über die Geschichte von Finanzen und Mathematik zu plaudern. Der damalsTM Podcast befasst sich damit, wie es kam, dass es kam, so dass es ist, wie es ist- und hatte in der letzten Zeit schon eine Reihe zu Geld (Geld I, Geld II, Geld III), wo die Entwicklung der Zahlungsmittel bisher bis zum 2. Weltkrieg behandelt wurden. Die Ökonomie zählt zu den Sozialwissenschaften, die oft Theorien auf Annahmen behandeln, während die Mathematik als Geisteswissenschaft sich gerne auch mal sehr exakt mit Theorien fernab der Realität befassen kann. Die Kryptographie ist jedoch ein schönes Beispiel, wie aus abstrakten mathematischen Theorien der Algebra und der Zahlentheorie plötzlich sehr reale Anwendungen aus unserem Alltag wurden. Mit Kryptoanalyse konnte man sowohl einfache Transpositionschiffren als auch die Enigma durch mathematische Verfahren knacken. Bevor vereinheitlichte Geldeinheiten eingeführt wurden, waren schon früh Objekte mit Geldfunktion eingesetzt, wo oft die Seltenheit und Wertigkeit des Materials schon für sich einen gewissen Wert sicherte. Ebenso früh kam es zu Geldversprechen wie dem Agrarkredit (zurück bis hin zum Codex Hammurapi), mit denen jetzige Ausgaben durch versprochene spätere Erntegewinne beglichen werden konnten. Dies führte zum Konzept des Zinses, mit dem das Verlustrisiko durch Ausfall und die erst spätere Zugängigkeit des Geldes bewerten kann. Das Größenordnung des Zehnt war gesellschaftlich zwar als Steuer akzeptiert, wurde jedoch als Zins schnell als Wucher gesehen, da der Zinseszins sehr schnell anwuchs. Daraus entstand auch die Gegenbewegung des Zinsverbots, das auch heute noch im Islamischen Bankwesen zu Umgehungsgeschäften führt. Die mit Geldgeschäften oft assoziierten Geldwechsler hatten als Arbeitsmittel eine Bank, die namensgebend für unsere heutigen Banken ist, und woran das Wort bankrott auch heute noch erinnert. Neben astronomischen Berechnungen, wie der Berechnung des Osterfests, war die Geldwirtschaft früh ein großes Anwendungsfeld für die Mathematik. Ein wichtiges Berechnungsmodell waren die Abzinsung und die Zinsformel, mit der man die Werte zwischen jetzt und in Zukunft unter Berücksichtigung des Zinses umrechnen konnte. Hier war das exponentielle Wachstum der Kreditentwicklung unter Zinseszinsen für viele nicht zu übersehen. Aber selbst, wenn man diese Berechnung beherrschte, so gab es das Zinsänderungsrisiko, das besonders bei langfristigen Verträgen zu erheblichen Änderungen zu den Kalkulationen führen konnte. Verschiedene Zinssätze verschiedener Landesherren führte auch unmittelbar zu unterschiedlichen Wechselkursen zwischen den lokalen Währungen der Landesherren. Zusätzlich gab es schon früh den Effekt der Teuerung oder Inflation oft durch unkontrolliertes Geldmengenwachstum. Ein Beispiel ist hier die Inflation durch die Entdeckung Amerikas. Es war damals noch nicht klar, wie der tatsächliche Wert des Geldes auch durch einen Warenkorb identifiziert werden kann. Ein sehr grobes aber dafür sehr leicht zugängiges aktuelles Indiz für den Wert verschiedener Währungen ist der Big-Mac Index. Aus der Anforderung des waren- und ortsübergreifenden Handels wurden die Börsen geboren: Hier konnten Waren und Währungen im Jetzt, aber auch in der Zukunft in Termingeschäften gehandelt werden. Schnell etablierte sich hier auch die Spekulation, die über Risikoübernahme zu einem wichtigen Bestandteil der Wirtschaft wurde. Ein bekanntes Beispiel für eine Fehlentwicklung ist die Tulpenkrise, bei der es zu einer Finanzblase bis hin zum Börsencrash kam, und exemplarisch für spätere Immobilienblasen wurde. Die Effekte konnten durch Hebeleffekte noch verstärkt werden, wenn Fremdkapital für mehr erwartete Rendite eingesetzt wurde. Eine Renditebetrachtung ist auch für die persönliche Finanzplanung sehr wichtig- so sollte jeder die Altersvorsorge frühzeitig angehen und dabei Risikoklassen und die Diversifikation zur Risikoverteilung beachten. Aus der Erfahrung, dass viele Finanzprodukte und Anlageberater die zugrunde liegenden Indices oft nur in der Vergangenheit schlagen, haben sich Finanzcommunities wie The Motley Fool gebildet, um sich gegenseitig zu informieren. Mathematisch kann man die Optimalität einer Investition auch als Multikriterielle Optimierung zwischen Rendite und Risiko im Sinne der Volatilität verstehen: Hier stellt sich heraus, dass hier zwischen den Kriterien abgewogen werden muss, und es nicht ein Optimum gibt, sondern die Linie der Pareto-Optimalität. Jedoch darf man nicht einfach aus der vergangenen Entwicklung auf Rendite und Risiko schließen: Gerade Ponzi-Systeme scheinen eine hohe Rendite bei geringer Volatilität und Risiko zu liefern, wo die Zinsen früherer Anleger nur durch die Investitionen durch angelockte Neuanleger bezahlt werden, und was natürlich nicht ewig funktionieren kann, und viele werden ihren Einsatz verlieren. Plant man Investitionen in Güter, so sollte man daher genau recherchieren, wie es um den Gegenstand steht. Bei Immobilien gibt ist eine Begehung mit Fachpersonen möglich und ein Blick in Bodenrichtwertkarten ist sehr sinnvoll. Bei Aktien kann man hingegen auf Basis der veröffentlichten Informationen und Kennzahlen Fundamentalanalysen bilden. Alle diese Modelle sind aber immer Komplexitätsreduktionen, die irgendwann ihre Gegenbeispiel finden können und dann zu Geldverlust führen. Neben der schwierigen Bewertung von Aktien wird es richtig spannend, wenn notwendigerweise auch Termingeschäfte oder Derivate der Aktien oder Wirtschaftsgüter berücksichtigt werden: Diese werden im Markt unmittelbar benötigt, sind jedoch vom Basiswert und der allgemeinen Marktsituation abhängig. Optionen können auf der einen Seite Geschäfte absichern, können jedoch auf der anderen Seite bei einem hohem Hebel auch sehr spekulativ und entsprechend gefährlich sein. Für eine mathematische Bewertung von Optionen wird ein Markt mit Arbitragefreiheit vorausgesetzt, um andere künstliche Einflüsse auszuschließen. Dann können analytisch Optionskennzahlen (die Griechen) bestimmt werden, um aus dem komplexen Markt ein Gefühl für den Wert zu erhalten. Umgekehrt kann man aber auch konstruktiv eine Bewertung mit dem Cox-Ross-Rubinstein-Modell berechnen. Der Kursverlauf wird hier vereinfacht wie der Kugellauf durch ein Galtonbrett angenommen, wo eine Richtung für einen fallenden Kurs, die andere für einen steigenden Kurs steht. Dies führt im vereinfachten Fall zu einer Binomialverteilung oder im Grenzfall zu einer Normalverteilung der möglichen Kurse am Ende der Laufzeit. Damit kann die Option auf Basis von Volatilität und Rendite des Basiswerts mit einem diskreten Modell bewertet werden. Das vereinfachte Cox-Ross-Rubinstein-Modell lässt sich unter weiteren Annahmen immer feiner diskretisieren und man erhielt 1973 das Black-Scholes-Modell, wo nun in dieser stochastischen Differentialgleichung der Brownsche Prozess Anwendung findet. Der Brownsche Prozess ist der beobachteten zufälligen brownschen Molekularbewegung entlehnt. Aus diesem komplexen Modell können nun einfache geschlossene Formen für die Bewertung von vielen Optionenstypen berechnet werden, was 1997 zur Verleihung des renommierten Preises der Wirtschaftswissenschaften geführt hatte. Leider ergaben sich schnell Widersprüche in der Überprüfung des Modells am echten Markt: Es entsteht der Volatilitäts-Smile, der den Unterschied der Vorhersage zur tatsächlichen Situation darstellt. Interessanterweise trat der von Devisen bekannte Effekt bei Aktien erst nach dem Börsencrash von 1987 auf. Podcasts S. Ritterbusch: Digitale Währungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. W. Härdle: Risikobewertung, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 41, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. S. Ajuvo, L. Schult: Geld I, Gespräch im damalsTM Podcast, Folge 2, 2015. S. Ajuvo, Steffen P., L. Schult: Geld II, Gespräch im damalsTM Podcast, Folge 5, und im VorHundert Podcast, Folge 18, 2015. S. Ajuvo, L. Schult: Geld III, Gespräch im damalsTM Podcast, Folge 21, 2016. L. Mirlina, F. Dehnen: Qwirkle-Gruppe. Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 76, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/qwirkle-gruppe GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine M. Fürst: Probabilistische Robotik, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 95, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/probabilistische-robotik S. Ajuvo: Finanzen damalsTM, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 97, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/finanzen-damalstm
6/23/2016 • 2 hours, 8 minutes, 38 seconds
Ensemblevorhersagen
Stephan Hemri hat an der ETH in Zürich einen Bachelorstudiengang Umweltwissenschaften absolviert und sein Studium mit einem Master in Statistik abgerundet. Seine Masterarbeit entstand an der Eidgenössischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL). Hierbei hat er auch statistisches Postprocessing kennengelernt. Mit diesem Wissen und dem vorhandenen Interesse übernahm er ein Promotionsthema von Tilmann Gneitling am Lehrstuhl für Computational Statstics an der KIT-Fakultät für Mathematik und am Heidelberger Institut für Theoretische Studien. Zu den Höhepunkten dieser Zeit zählt er die vier Monate, die er am Europäischen Wetterzentrum (Zentrum für Mittelfristprognose) in Reading mitforschen konnte. Schon seit langem werden für die Wettervorhersage numerische Modelle eingesetzt. Dabei werden Größen wie zum Beispiel Temperatur und Niederschlag auf einem globalen 3-dimensionale Gitter durch das Lösen von großen gekoppelten und nichtlinearen Gleichungssystemen bestimmt, die aus physikalischen Modellen hergeleitet sind, nach denen sich Luftmassen und Wasser in der Atmosphäre in etwa bewegen und dabei unser Wetter erzeugen. Ebenso wichtig - wenn auch weniger bekannt - sind hydrologische Vorhersagen zu Pegelständen an Flüssen, die mit ähnlichen Methoden für einige Zeit im voraus berechnet werden. Zu Beginn waren die damit verbundenen Rechnungen rein deterministisch, was den großen Nachteil hatte, dass die Ergebnisse der Modellläufe nichts über Unsicherheiten der Vorhersage aussagen konnten. Eine Idee, um Ungenauigkeiten der Modellrechnungen zu bestimmen, ist zu Ensemblevorhersagen überzugehen. Das heißt, man berechnet nicht nur eine Vorhersage, sondern mehrere Modelläufe, jeweils zu abgeänderten (gestörten) Anfangsbedingungen oder mit verschiedenen Modellen, um zu sehen, wie stark sie sich in den Ergebnissen unterscheiden. Sind sich die verschiedenen Rechnungen weitestgehend einig, ist die Vorhersage recht sicher zutreffend. Weichen sie stark voneinander ab, sind sie entsprechend wenig sicher. Die Datenlage in der Wettervorhersage ist sehr gut. Insofern, kann man natürlich im Nachgang immer abgleichen, inwiefern Vorhersagen eingetroffen sind und dies zur Verbesserung der Modelle benutzen. Aber trotzdem bleiben konkrete Aussagen wie z.B. Hochwasservorhersagen oder Vorhersagen zu Pegeln anhand von Niederschlags-Daten sehr schwierig, weil die Modelle nicht ausgereift sind und die Verbesserung nicht auf der Hand liegt. Zum Beispiel am Europäischen Wetterzentrum in Reading ist derzeit ein Ensemble bestehend aus 51 Modellenvarianten verfügbar. Zusammen mit einem deterministischen Modell höherer Auflösung, führt dies zu einem recht großen Ensemble von Vorhersagen. In der statistischen Nachbearbeitung (dem Postprocessing) wird vor allem nach systematischen Fehlern Ausschau gehalten. Dabei werden bedingte Wahrscheinlichkeits-Vorhersagen auf das Ensemble bezogen und parametrische Dichtefunktionen erzeugt. Als Trainingsperiode werden dabei z.B. die letzten 30 Tage gewählt. Bei hydrologischen Abschätzungen sind jahreszeitliche Trainingsperioden (gleiche Jahreszeiten, aber andere Jahre) häufig sehr hilfreich. Dieses Vorgehen führt in der Regel zu einer besseren Schätzung des zukünftigen Wetters und Pegelständen. Für die Temperatur kann man sich das Vorgehen am einfachsten vorstellen: Es gibt einen Ensemble-Mittelwert, dessen Fehler in etwa normalverteilt ist. Bei der Nachbearbeitung wird z.B. der Mittelwert-Parameter an den Mittelwert des Ensembles in linearer Weise angepasst. Auch die Varianz ist in erster Näherung eine lineare Funktion der Varianz des Ensembles. Das ist ein sehr einfaches Modell, aber schon hilfreich. Zwei grundlegende Ideen gehen in der Parameterschätzung ein. Zum einen nichthomogene Regression, die gut verstanden aber nicht so flexibel ist - zum anderen Baysean Model averaging. Über allen statistischen Verfahren und Verbesserungen bleibt jedoch auch die Forderung, dass die Nutzbarkeit der Ergebnisse für den Endnutzer gegeben sein muss. Deshalb wird - gerade bei Wasserstandsvorhersagen - manchmal dann doch nur ein zu erwartender Pegelstand übermittelt ohne alle im Prozess gewonnenen Erkenntnisse über mögliche Abweichungen von diesem approximativen Wert mitzuteilen. Literatur und weiterführende Informationen Cloke, H. L. and F. Pappenberger (2009). Ensemble flood forecasting: a review. Journal of Hydrology 375, 613--626. Gneiting, T., A. E. Raftery, A. H. Westveld, and T. Goldman (2005). Calibrated probabilistic forecasting using ensemble model output statistics and minimum CRPS estimation. Monthly Weather Review 133, 1098--1118. Raftery, A. E., T. Gneiting, F. Balabdoui, and M. Polakowski (2005). Using Bayesian model averaging to calibrate forecast ensembles, Monthly Weather Review 133, 1155--1174. Thorarinsdottir, T. L. and T. Gneiting (2010). Probabilistic forecasts of wind speed: ensemble model output statistics by using heteroscedastic censored regression, Journal of the Royal Statistical Society (Series A) 173, 371--388.
6/16/2016 • 33 minutes, 27 seconds
Probabilistische Robotik
Einen fahrbaren Roboter zu bauen- das ist schon eine echte Herausforderung. Um diesem aber auch noch beizubringen autonom Aufgaben zu lösen, bedienten sich Michael Fürst und sein Team der Mathematik: Im Rahmen der Gulasch Programmier-Nacht (GPN16) des Entropia e.V. in der Hochschule für Gestaltung (HfG) und dem Zentrum für Kunst und Medien (ZKM) in Karlsruhe berichtete er über die Verfahren der Probabilistischen Robotik (Video) und welche Erfahrungen sie damit machen konnten- und erzählt uns im Gespräch mit Sebastian Ritterbusch davon. Michael Fürst studiert Informatik am Karlsruher Institut für Technologie (KIT) und befasst sich im Team Informatik der Hochschulgruppe Kamaro Engineering speziell mit robusten probabilistischen Methoden zur Entscheidungsfindung. Der aktuelle Roboter Beteigeuze der Hochschulgruppe ist die zweite Generation und wurde dafür ausgelegt, Aufgaben in der Überwachung und Bewirtschaftung von Maisfeldern oder der Navigation im urbanen Umfeld zu erfüllen. Die Hochschulgruppe gibt es seit 3 Jahren und besteht aus 30-45 Mitgliedern. Sie ist eingebettet in das Teilinstitut Mobile Arbeitsmaschinen (MOBIMA) am Institut für Fahrzeugsystemtechnik (FAST) am KIT mit dessen Unterstützung und Drittspenden sich die Hochschulgruppe finanziert. Die interdisziplinäre Hochschulgruppe besteht aus vier Teams: Das Organisationsteam, das Mechanik-Team, das Elektrotechnik-Team und das Informatik-Team. Die Gruppe organisiert sich auch als Verein mit Vorstand und einer Leitung in jedem Team, um mit einer flachen Hierarchie jedem die Möglichkeit zu bieten sich in das Projekt einzubringen. Auf der einen Seite will die Gruppe die autonome Robotik voranzubringen und allen Teammitgliedern gleichzeitig auch die Möglichkeit zu bieten, praktisches Wissen und Erfahrungen neben dem oft theoretischem Studium zu erlangen. Das Team nimmt dazu regelmäßig an verschiedenen internationalen Wettbewerben teil, wie dem Field Robot Event, dem SICK Robot Day oder der Robotour. Technisch basiert die Software-Lösung des Roboters inzwischen auf dem Robot Operating System (ROS), mit dem auf einer Ubuntu-Plattform auf einem im Roboter eingebauten Computer in Java, Python oder C++ die gestellten Aufgaben bearbeitet werden. Mit 40kg Gewicht ist der Roboter für seine Größe kein Leichtgewicht und kann daher nicht beliebig Batterien transportieren, so dass dem Lademanagement eine besondere Rolle zufällt. Die gewählte Größe ermöglicht gerade bei der Feldarbeit einen nicht-invasiven Ansatz, der im Vergleich zu anderen Varianten, wie der automatischen Steuerung von Traktoren, die Pflanzen nicht schädigt. Der Roboter erfasst seine Umwelt mit einer Vielzahl von Sensoren: Die Lidar-Sensoren zur Entfernungsmessung in verschiedenen Richtungen sind dabei besonders wichtig, und sie messen bis zu 50mal pro Sekunde. Sie bestimmen die Entfernungen zur Umgebung des Roboters in einer Ebene bis 16m in einer Auflösung von bis zu drei Messpunkten pro Winkel-Grad und 3cm Entfernungsauflösung- mit gewissen Fehlerraten und Problemen mit reflektierenden Oberflächen. Zusätzlich misst eine intertiale Messeinheit translative und radiale Beschleunigungen wie auch die Ausrichtung zum Erdmagnetfeld. Zusätzlich können auch digitale Kameras zur Detektion von befahrbaren Untergründen, Objekten oder zur Analyse von Pflanzen eingebaut und verwendet werden. Zusätzlich messen Radencoder die Umdrehungen und Auslenkung durch Servos der Räder, womit der Roboter durch Odometrie seine durchgeführte Bewegung aus sich selbst heraus abschätzt. Durch die Kombination der Lidar-Daten mit der Odometrie durch ein SLAM-Verfahren (Simultaneous Localization and Mapping) ermöglicht mit einem Kalman-Filter durch Analyse der Kovarianzen die robuste Erstellung einer Karte während des Befahrens, und korrigiert Fehler bei der eigenen Lokalisierung durch die Odometrie. Zusätzlich kann der Roboter mit einem GPS-Empfänger seine Position grob bestimmen. In der Auswertung der Sensoren wird zwar von einer guten Kalibrierung ausgegangen, jedoch ist es Teil des probabilistischen Ansatzes, die erfassten Werte immer mit einer konservativen Fehlerverteilung zu verarbeiten. Die Kamerabilder werden ebenso robust verarbeitet: Die Bilddaten werden nach einer Konvertierung in den HSV-Farbraum zunächst auf eine konstante Helligkeit gebracht, um Schatteneffekte zu reduzieren. Dann werden alle weniger farbigen Pixel als befahrbarer Weg markiert, und die Anzahl der befahrbaren Pixel pro Spalte in ein Histogramm zusammengeführt. Jeder Wert in dem Histogramm wird nun als Güte bzw. der Wahrscheinlichkeit für Fahrbahn in diese Richtung gewertet. Die GPS-Position wird zur Lokalisierung in der Open Street Map verwendet, wo nach Berechnung einer Route die aktuelle Zielfahrtrichtung bestimmt wird. Die eigentliche Entscheidungsfindung erfolgt dann auf Basis der verschiedenen Sensordaten durch die Berechnung von Erwartungswerten in Abhängigkeit von einer möglichen Fahrtrichtung. Genauer betrachtet werden für jeden Sensor Zielfunktionen über den erwarteten Nutzen unter Annahme des Fahrens in eine bestimmte Richtung berechnet, und anschließend der von der Fahrtrichtung abhängige Erwartungswert unter Annahme von Sensorungenauigkeiten und Fahrungenauigkeiten bestimmt. Im Falle der gewünschten Fahrtrichtung aus den GPS- und Kartendaten wird eine sehr breite Normalverteilung angesetzt, weil auch abweichende Richtungen noch einen Gewinn darstellen können, wenn sie zumindest etwas in die richtige Richtung gehen. Aus jedem Sensor ergibt sich pro Fahrtrichtung ein erwarteter Teilnutzen, und aus allen Teilnutzen wird der Gesamtnutzen als Produkt berechnet: Dadurch werden Teilnutzen von 0 sofort als Gesamtnutzen 0 gewertet, ansonsten aber geometrisches Mittel über die Teilnutzen gebildet. Die gewählte Fahrrichtung ergibt sich dann aus der Richtung, unter der sich das Gesamtmaximum des Gesamtnutzens ergibt. Die Verarbeitung der Sensordaten erfolgt typischerweise in der Geschwindigkeit, in der die Sensoren die Umgebung abtasten. In der Bildverarbeitung wird dies besonders durch die effizienten Routinen der verwendeten OpenCV-Bibliothek möglich. So sind bis zu 30 Entscheidungen in der Sekunde möglich, jedoch können die Motoren die Entscheidungen nur deutlich langsamer umsetzen. Es wurden auch weitere Verfahren zur Entscheidungsfindung getestet, wie die Verwendung von Clusteranalyse oder die Erstellung von Voronio-Diagrammen. Doch zeigte die robuste Entscheidungsfindung über Erwartungswerte bei der Navigation im urbanen Gebiet ihre Vorteile. Die beschriebene Entscheidungsfindung bezieht sich dabei bisher nur auf die Fahrtrichtung- die Fahrtgeschwindigkeit wird bisher nur von der freien Wegstrecke in Fahrtrichtung bestimmt. Dadurch verfolgt der Roboter im Normalfalle seine Ziele in Normgeschwindigkeit von 0.5-1m/s (er läuft und läuft und läuft), bremst aber, sobald er in die Gefahr gerät, sonst einen Menschen oder sich selbst zu beschädigen. Dadurch folgt der Roboter den Robotergesetzen von Asimov. Die Kommunikation im Roboter erfolgt über verschiedene Netze- der Lidar-Sensor wird beispielsweise über Ethernet angesprochen, die Entscheidungsfindung spricht mit den Hauptroutinen in der Recheneinheit über eine TCP-Verbindung, die Kommunikation von der Recheneinheit zum Masterboard erfolgt über USB als serielle Schnittstelle (UART), und das Masterboard gibt seine Steuerbefehle über einen CAN-Bus an Motoren und Servos weiter. Der Wettbewerb der Robotour 2015 fand in Tschechien in der Innenstadt von Pisek statt. Nach einer Qualifikation vor Ort gab es nach einer Testrunde eine erste Wettkampfrunde, in der die Roboter eine Lieferung von einem Parkplatz durch die gesamte Innenstadt über festgelegte Wegpunkte letztlich zu einem Restaurant bringen sollen. Obwohl der Testlauf noch erfolgreich war, litt der Roboter Beteigeuze der Gruppe in den ersten zwei Segmenten unter Abstürzen und lag damit auf dem letzten Platz. Nachdem der Fehler gefunden war, erreichte der Roboter im dritten Lauf als einziger das Segmentziel; und blieb im vierten Lauf zwar am Hintereingang des Restaurants hängen, war aber auch da gegenüber allen anderen Kandidaten bei weitem am nächsten am Ziel, und gewann so den Wettbewerb. Für einen Einstieg in die Robotik bieten sich Systeme wie Lego Mindstorms oder andere Roboterbaukästen an, aber auch Programmierspiele, wie sie Michael auch auf der GPN angeboten hat: https://github.com/Programmierspiele. Literatur und weiterführende Informationen M. Fürst: Probabilistische Robotik- Interessen eines Roboters als Nutzen formulieren und verarbeiten, Vortrag auf der Gulasch Programmier-Nacht GPN16, 2016. M. Fürst: Detecting Drivable Regions in Monocular Images, Robotour 2015, Autonomous Robot in Parks and Urban Regions, 2015. EKF-SLAM erklärt: Wie sieht ein Roboter die Welt? Robotour 2015 Vorgehensweise bei Kamaro GPN16 Special J. Breitner: Incredible Proof Machine, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 78, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/incredible-proof-machine
6/9/2016 • 1 hour, 42 minutes, 4 seconds
Banach-Tarski Paradox
Nicolas Monod teaches at the École polytechnique fédérale in Lausanne and leads the Ergodic and Geometric Group Theory group there. In May 2016 he was invited to give the Gauß lecture of the German Mathematical Society (DMV) at the Technical University in Dresden. He presented 100 Jahre Zweisamkeit – The Banach-Tarski Paradox. The morning after his lecture we met to talk about paradoxes and hidden assumptions our mind makes in struggling with geometrical representations and measures. A very well-known game is Tangram. Here a square is divided into seven pieces (which all are polygons). These pieces can be rearranged by moving them around on the table, e.g.. The task for the player is to form given shapes using the seven pieces – like a cat etc.. Of course the Tangram cat looks more like a flat Origami-cat. But we could take the Tangram idea and use thousands or millions of little pieces to build a much more realistic cat with them – as with pixels on a screen. In three dimensions one can play a similar game with pieces of a cube. This could lead to a LEGO-like three-dimensional cat for example. In this traditional Tangram game, there is no fundamental difference between the versions in dimension two and three. But in 1914 it was shown that given a three-dimensional ball, there exists a decomposition of this ball into a finite number of subsets, which can then be rearranged to yield two identical copies of the original ball. This sounds like a magical trick – or more scientifically said – like a paradoxical situation. It is now known under the name Banach-Tarski paradox. In his lecture, Nicolas Monod dealt with the question: Why are we so surprised about this result and think of it as paradoxical? One reason is the fact that we think to know deeply what we understand as volume and expect it to be preserved under rearrangements (like in the Tangram game, e.g.).Then the impact of the Banach-Tarski paradox is similar for our understanding of volume to the shift in understanding the relation between time and space through Einstein's relativity theory (which is from about the same time). In short the answer is: In our every day concept of volume we trust in too many good properties of it. It was Felix Hausdorff who looked at the axioms which should be valid for any measure (such as volume). It should be independent of the point in space where we measure (or the coordinate system) and if we divide objects, it should add up properly. In our understanding there is a third hidden property: The concept "volume" must make sense for every subset of space we choose to measure. Unfortunately, it is a big problem to assign a volume to any given object and Hausdorff showed that all three properties cannot all be true at the same time in three space dimensions. Couriously, they can be satisfied in two dimensions but not in three. Of course, we would like to understand why there is such a big difference between two and three space dimensions, that the naive concept of volume breaks down by going over to the third dimension. To see that let us consider motions. Any motion can be decomposed into translations (i.e. gliding) and rotations around an arbitrarily chosen common center. In two dimensions the order in which one performs several rotations around the same center does not matter since one can freely interchange all rotations and obtains the same result. In three dimensions this is not possible – in general the outcomes after interchanging the order of several rotations will be different. This break of the symmetry ruins the good properties of the naive concept of volume. Serious consequences of the Banach-Tarski paradox are not that obvious. Noone really duplicated a ball in real life. But measure theory is the basis of the whole probability theory and its countless applications. There, we have to understand several counter-intuitive concepts to have the right understanding of probabilities and risk. More anecdotally, an idea of Bruno Augenstein is that in particle physics certain transformations are reminiscent of the Banach-Tarski phenomenon. Nicolas Monod really enjoys the beauty and the liberty of mathematics. One does not have to believe anything without a proof. In his opinion, mathematics is the language of natural sciences and he considers himself as a linguist of this language. This means in particular to have a closer look at our thought processes in order to investigate both the richness and the limitations of our models of the universe. References: F. Hausdorff: Bemerkung über den Inhalt von Punktmengen. Math. Ann. 75 (3), 428–433, 1914. S. Banach and A.Tarski: Sur la décomposition des ensembles de points en parties respectivement congruentes, Fundamenta Mathematicae 6, 244–277, 1924. J. von Neumann: Zur allgemeinen Theorie des Maßes Fundamenta Mathematicae 13, 73–116, 1929. S. Wagon: The Banach–Tarski Paradox. Cambridge University Press, 1994. B.W. Augenstein: Links Between Physics and Set Theory, Chaos, Solitons and Fractals, 7 (11), 1761–1798, 1996. N. Monod: Groups of piecewise projective homeomorphisms, PNAS 110 (12), 4524-4527, 2013. Vsauce-Video on the Banach-Tarksi Paradox
6/2/2016 • 27 minutes, 47 seconds
Verkehrsmodellierung I
Peter Vortisch bekleidet seit 2010 eine Professur für Verkehrswesen am Karlsruher Institut für Technologie (KIT) und ist Leiter des Instituts für Verkehrswesen. Wir haben über die Entwicklung der Modellierung von Verkehr gesprochen und dabei den Schwerpunkt zunächst auf die Anfangszeit gelegt, in der sich die in der Forschung geborene Idee Schritt für Schritt in ein Softwareprodukt entwickelte und wo und warum sich die Idee und das Produkt durchsetzen konnten. Peter Vortisch hat in Karlsruhe eigentlich Informatik studiert und kam zum Verkehrswesen zunächst als wissenschaftliche Hilfskraft. Er hat dann bald mit an den ersten Simulationen programmiert. Solche Simulationen wurden damals auf Großrechnern durchgeführt, von denen es nur wenige gab. Die Forschungen und theoretischen wie praktischen Überlegungen wurden im wesentlichen von Professor Wiedemann vorangetrieben. Seine Karlsruher Gruppe war die erste, die das in Deutschland erfolgreich erprobte und schließlich als Standard eingeführt hat. Es gab damals Forschungsprojekte z.B. zur Wirkung von Tempolimits im Auftrag des Verkehrsministeriums. In der Zwischenzeit entwickelte sich die Rechentechnik weiter und mit dem Siegeszug des PCs wanderte die Simulation vom Rechenzentrum auf die Schreibtische. Damals war es möglich, auf so einem Rechner ein Modell mit etwa 20 Fahrzeugen in Echtzeit zu simulieren - heut sind die Rechner so viel schneller, dass mehrere 100.000 Fahrzeuge möglich sind. Aber auch mit so wenigen Fahrzeugen war es ein wichtiger Schritt hin zur Kommerzialisierung der Verkehrsmodelle. In den USA gab es damals z.B. ein öffentlich subventioniertes Produkt für Verkehrsplaner, was einen durchschlagenden Erfolg hatte und die Simulation in allen Büros etablierte. In Karlsruhe entwickelte sich ein Spin off aus dem Institut, die Firma ptv entwickelte das Produkt und die Vermarktung der Verkehrssimultion zunächst in Deutschland. Seither besteht eine enge Zusammenarbeit mit dem Institut für Verkehrswesen. Im Zuge dieser Professionalisierung wurde die Verwendung des Produktes durch Verkehrsingenieure der neue Standard. Es gab zwei große deutsche Unternehmen, die die Entwicklung der Software stark beschleunigt haben. Zunächst die Firma SIEMENS weil sie die Wirkung von Ampelsteuerungen besser vorhersehen wollte. U.a. auch im Zusammenhang mit der Grün-Anforderung durch den ÖPNV. Vor dem Aufbau auf einer echter Kreuzung sollte die Simulation auf dem Rechner beweisen, dass auch der gewünschte Effekt durch die Ampelsteuerung erreicht werden würde. Das wurde schließlich sogar Teil der SIEMENS Software Verkehrsplanung. Verkehrsplaner in den Städten haben in dieser Zeit weitergehende Ideen noch nicht so gut angenommen. Dafür war dann die Firma Volkswagen ein Vorreiter. Sie hat sich eigentlich für Abgasemissionen interessiert, wofür man Temperaturverläufe der Motoren braucht. Es wurde daraus die Aufgabe abgeleitet, für eine ganze Stadt den Verkehr über den Tag hinweg zu simulieren (inkl. parken). Sie haben sich in großem Umfang finanziell an den Entwicklungsarbeiten beteiligt. Prototyp wurde die Stadt Braunschweig. Ohne die heute selbstverständlich vorliegenden Daten zu Straßen und Kreuzungen war das ein sehr aufwändiges Vorhaben. Außerdem brauchte man neue Verfahren, die entscheiden, welche Wege die Fahrzeuge in der Stadt zurücklegend. Ein wichtiges neues Verfahren hierfür wurde die Dynamische Umlegung. Diese neue Fähigkeit des Programms hat zu einer deutlich weiteren Verbreitung geführt, denn es war nun ein wirklich professionelles Softwareprodukt auf dem Markt in Deutschland vorhanden. Der Funktionsumfang des ptv-Produktes war schließlich größer als das des USA-Standards. Da dort Verkehrssimulation aber schon Usus war, war es einfach mit dem noch besseren Produkt in den US-Markt einzusteigen. Ein weiterer wichtiger Markt war auch Großbritannien, da dort traditionell bei Planungen viel modelliert wird ("Mutterland der Modellierung"). Dort war der Einstieg geschafft, als sich Transport for London entschied, mit dem ptv-Produkt zu arbeiten. Podcasts und Videos PTV Youtube-Kanal U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen K.Nökel: ÖPNV, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 91, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/oepnv
5/26/2016 • 17 minutes, 27 seconds
Viscoelastic Fluids
This is the second of four conversations Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th of April 2016 in Oxford. Helen Wilson always wanted to do maths and had imagined herself becoming a mathematician from a very young age. But after graduation she did not have any road map ready in her mind. So she applied for jobs which - due to a recession - did not exist. Today she considers herself lucky for that since she took a Master's course instead (at Cambridge University), which hooked her to mathematical research in the field of viscoelastic fluids. She stayed for a PhD and after that for postdoctoral work in the States and then did lecturing at Leeds University. Today she is a Reader in the Department of Mathematics at University College London. So what are viscoelastic fluids? If we consider everyday fluids like water or honey, it is a safe assumption that their viscosity does not change much - it is a material constant. Those fluids are called Newtonian fluids. All other fluids, i.e. fluids with non-constant viscosity or even more complex behaviours, are called non-Newtonian and viscoelastic fluids are a large group among them. Already the name suggests, that viscoelastic fluids combine viscous and elastic behaviour. Elastic effects in fluids often stem from clusters of particles or long polymers in the fluid, which align with the flow. It takes them a while to come back when the flow pattern changes. We can consider that as keeping a memory of what happened before. This behaviour can be observed, e.g., when stirring tinned tomato soup and then waiting for it to go to rest again. Shortly before it finally enters the rest state one sees it springing back a bit before coming to a halt. This is a motion necessary to complete the relaxation of the soup. Another surprising behaviour is the so-called Weissenberg effect, where in a rotation of elastic fluid the stretched out polymer chains drag the fluid into the center of the rotation. This leads to a peak in the center, instead of a funnel which we expect from experiences stirring tea or coffee. The big challenge with all non-Newtonian fluids is that we do not have equations which we know are the right model. It is mostly guess work and we definitely have to be content with approximations. And so it is a compromise of fitting what we can model and measure to the easiest predictions possible. Of course, slow flow often can be considered to be Newtonian whatever the material is. The simplest models then take the so-called retarded fluid assumption, i.e. the elastic properties are considered to be only weak. Then, one can expand around the Newtonian model as a base state. The first non-linear model which is constructed in that way is that of second-order fluids. They have two more parameters than the Newtonian model, which are called normal stress coefficients. The next step leads to third-order fluids etc. In practice no higher than third-order fluids are investigated. Of course there are a plethora of interesting questions connected to complex fluids. The main question in the work of Helen Wilson is the stability of the flow of those fluids in channels, i.e. how does it react to small perturbations? Do they vanish in time or could they build up to completely new flow patterns? In 1999, she published results of her PhD thesis and predicted a new type of instability for a shear-thinning material model. It was to her great joy when in 2013 experimentalists found flow behaviour which could be explained by her predicted instability. More precisely, in the 2013 experiments a dilute polymer solution was sent through a microchannel. The material model for the fluid is shear thinning as in Helen Wilson's thesis. They observed oscillations from side to side of the channel and surprising noise in the maximum flow rate. This could only be explained by an instability which they did not know about at that moment. In a microchannel inertia is negligible and the very low Reynolds number of suggested that the instability must be caused by the non-Newtonian material properties since for Newtonian fluids instabilities can only be observed if the flow configuration exeeds a critical Reynolds number. Fortunately, the answer was found in the 1999 paper. Of course, even for the easiest non-linear models one arrives at highly non-linear equations. In order to analyse stability of solutions to them one firstly needs to know the corresponding steady flow. Fortunately, if starting with the easiest non-linear models in a channel one can still find the steady flow as an analytic solution with paper and pencil since one arrives at a 1D ODE, which is independent of time and one of the two space variables. The next question then is: How does it respond to small perturbation? The classical procedure is to linearize around the steady flow which leads to a linear problem to solve in order to know the stability properties. The basic (steady) flow allows for Fourier transformation which leads to a problem with two scalar parameters - one real and one complex. The general structure is an eigenvalue problem which can only be solved numerically. After we know the eigenvalues we know about the (so-called linear) stability of the solution. An even more interesting research area is so-called non-linear stability. But it is still an open field of research since it has to keep the non-linear terms. The difference between the two strategies (i.e. linear and non-linear stability) is that the linear theory predicts instability to the smallest perturbations but the non-linear theory describes what happens after finite-amplitude instability has begun, and can find larger instability regions. Sometimes (but unfortunately quite rarely) both theories find the same point and we get a complete picture of when a stable region changes into an unstable one. One other really interesting field of research for Helen Wilson is to find better constitutive relations. Especially since the often used power law has inbuilt unphysical behaviour (which means it is probably too simple). For example, taking a power law with negative exponent says that In the middle of the flow there is a singularity (we would divide by zero) and perturbations are not able to cross the center line of a channel. Also, it is unphysical that according to the usual models the shear-thinning fluid should be instantly back to a state of high viscosity after switching off the force. For example most ketchup gets liquid enough to serve it only when we shake it. But it is not instantly thick after the shaking stops - it takes a moment to solidify. This behaviour is called thixotropy. Literature and additional material H. Wilson: UCL Lunch Hour Lectures, Feb. 2016. H.J. Wilson and J.M. Rallison: Instability of channel flow of a shear-thinning White–Metzner fluid, Journal of Non-Newtonian Fluid Mechanics 87 (1999) 75–96. Hugues Bodiguel, Julien Beaumont, Anaïs Machado, Laetitia Martinie, Hamid Kellay, and Annie Colin: Flow Enhancement due to Elastic Turbulence in Channel Flows of Shear Thinning Fluids, Physical Review Letters 114 (2015) 028302. Non-Newtonian Fluids Explained, Science Learning.
5/5/2016 • 21 minutes, 11 seconds
ÖPNV
Klaus Nökel arbeitet in der Firma ptvgroup an der Verkehrsmodellierung. Er war und ist an vielen Aspekten der Entwicklung der ptv-Software beteiligt. Einer seiner Schwerpunkte sind Modelle für den öffentlichen Nahverkehr - kurz ÖPNV. Oft kann man nur mit geeigneten Modellen und Simulationen den für Fördergelder erforderlichen Nachweis über einen zu erwartenden Nutzen von Baumaßnahmen erbringen. In Karlsruhe ist der Tunnel für die Straßenbahnen (in Karlsruhe kurz UStrab genannt) ein prominentes Beispiel einer solchen Großbaustelle. Die wichtigste Fragen zum erwarteten Nutzen, ist wie sich die Reisezeit verkürzt: Der Kosten-Nutzen-Quotient sollte hier natürlich möglichst klein sein. Die gesamten Baukosten sind dabei relativ einfach zu ermitteln. Die Nutzen-Seite ist dagegen nicht so einfach zu schätzen. Man braucht dafür ja Zahlen darüber, was für die Fahrgäste (quantifizierbar) besser wird- insbesondere im Bezug auf Zeiteinsparung. Um diese Frage beantworten zu können, muss für alle Einwohner eine Routenplanung für jeden Tag durchgeführt werden. In Bezug auf ÖPNV sind dies insbesondere die Mobliltätsentscheidungen zwischen Weg zu Fuß, mit dem Auto oder Fahrrad und dem ÖPNV. Das betrifft vor allem die Wege zur Arbeit, zu Freizeitaktivitäten und zum Einkaufen. Die Wohn- und Arbeitsorte liegen hier über längere Zeit fest - alle anderen Größen sind jedoch variabel und Entscheidungen wo man beispielsweise einkaufen geht, können sich mit besserer Erreichbarkeit verändern. Hier muss aufgrund vorliegender Informationen zu Wegen in der Stadt die Wahl des Verkehrsmittels modelliert werden und welche Route mit welchem Verkehrsmittel typischerweise gewählt wird. Die Frage ist dann, ob es zu Verschiebungen in der Verkehrsmittelwahl kommen wird, nachdem sich die Infrastruktur geändert hat (wie z.B. durch den Tunnel bei uns in Karlsruhe). Die Angebotsseite ist vergleichsweise einfach zu beschreiben: Verkehrsnetz(e) wie Straßen und Liniennetz des ÖPNV mit zugehörigem Fahrplan sind bekannte Daten. Die Kenntnisse über die Nachfrage sind komplex und setzen sich aus verschiedenen Anteilen zusammen. Ein gut verstandener Teil hier ist der soziodemographische z.B. ob ein Auto zur Verfügung oder nicht. Typischerweise haben junge Leute auf dem Weg zur Schule oder in die Ausbildung kein Auto zur Verfügung. Ebenso kann man gut beschreiben, wo gewohnt, gearbeitet und typischerweise eingekauft wird. Die Frage, welche Wege zurückgelegt werden, wird nicht wirklich gezählt oder genau ermittelt, sondern modelliert. Dabei sind viele Fragen nicht eindeutig beantwortbar. Manches sind auch ganz persönliche Vorlieben, so wie verschiedene Personen höhere Wegekosten gegenüber höherer Wegezeit sehr unterschiedlich gewichten. Eine typische Datenbeschaffungsmethode ist bisher, Menschen über einen gewissen Zeitraum Tagebuch zu ihren Mobilitätsentscheidungen führen zu lassen. Zusätzlich zu den so dokumentierten und hochgerechneten Entscheidungen müssen für das Modell als Vergleich auch noch mögliche Alternativen zu diesen Entscheidungen mit berechnet werden (inklusive Zeit- und Geldaufwand). Als mathematische Methode bietet sich ein Discrete Choice Modell an, denn es geht um endlich viele Alternativen zwischen denen gewählt wird. Es gibt darin einige objektive Anteile der persönlichen Nutzenfunktion und einen unbeobachtbaren Teil der Nutzenfunktion, der üblicherweise durch eine Wahrscheinlichkeitsverteilung im Modell realisiert werden kann und muss. Statistik insbesondere die Schätztheorie hilft bei der Bestimmung der Wahrscheinlichkeitsverteilungen aus vorliegenden Entscheidungen. Das Gewicht für das "Rauschen" ist eine Unbekannte im Modell. Je nach Standort für den das Modell entwickelt wird, unterscheidet sich das tatsächlich. In den letzten Jahren hat sich die Anzahl der Wahlmöglichkeiten für Mobilität durch verschiedene Sharing-Modelle außerdem stark erweitert, wie z.B. durch Carsharing oder Fahrrad-Leihe, die inzwischen auch niederschwellig und sehr flexibel geworden sind. Vor allem in Kombination mit herkömmlichen Transportmitteln liegt ein großes Potential, das gerade erschlossen wird (z.B. haben zur Zeit etwa 600 Städte in der Welt ein Leihfahrrad-System). Es wäre einfacher, wenn die Benutzung noch klarer standardisiert wäre und eine Benutzerführung so einfach wie in einer typischen App erfolgte. Sinnvoll und wünschenswert wären natürlich ausführliche Vorher-nachher-Untersuchungen, um die Güte der Vorhersagen der Modelle zu prüfen und auch zu verbessern. Bisher war das meist zu teuer, aber das ändert sich gerade, weil Datenmengen aus Smartphones nutzbar und einfach auswertbar werden. Zum Glück gibt es hier keine Berührung der Privatsphäre, weil nur anonyme Angaben aus großen Mengen von Bewegungsprofilen gebraucht werden aus denen keine Rückschlüsse auf einzelne Personen möglich sind. Die Städte versuchen für ihre Einwohner die Erreichbarkeits-Gerechtigkeit zu verbessern. Hier vereinfachen die neuen Verkehrsmittel potentiell das Problem der letzten Meile lösen zu helfen. Das Verhalten der Verkehrsteilnehmer ändert sich auch gerade in prinzipieller Weise durch die Verfügbarkeit von online-Informationen zum Verkehr (einerseits per Smartphone, andererseits durch Anzeigen an den Haltestellen). Hat man sich früher eine Variante zu Hause überlegt und so gut es ging anschließend abgearbeitet (unterwegs hatte man dabei nur beschränkt Möglichkeiten mit Verspätungen und verpassten Verbindungen fertig zu werden), so reagieren heute Fahrgäste anders, weil sie unterwegs mehr Informationen haben. Hier braucht man tatsächlich auch neue Modelle und mehr Rechenpower. Eine weitere Entwicklung ist es, im Modell zu berücksichtigen, dass Fahrgäste Entscheidungen auch nach erwartetem Komfort treffen. So sind volle Bahnen für viele abschreckend. Das könnte man im Modell noch relativ einfach berücksichtigen. Wenn man aber einbauen will, dass es eine gute Strategie ist, erst in der "falschen" Richtung zu fahren, um an einer früheren Station in die Linie einzusteigen, damit man tatsächlich auch mitkommt und nicht wegen einer überfüllten Bahn an der Haltestelle zurückbleiben muss, vergrößert das die Menge der sinnvollen Routen erheblich. Literatur und Zusatzinformationen H. Knoflacher: Grundlagen der Verkehrs- und Siedlungsplanung: Verkehrsplanung, Böhlau, Wien, 2007 M. Fellendorf e.a.: Trends in der ÖPNV-Planung: 9. Sommerakademie, Tagungsband, Graz, 5.September 2011 G. Gentile & K. Noekel (Eds): Modelling Public Transport Passenger Flows in the Era of Intelligent Transport Systems, COST Action TU1004 (TransITS), Springer, 2016 Dokumente zu TransITS Cost Action Podcasts und Videos PTV Youtube-Kanal U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen
4/28/2016 • 46 minutes, 54 seconds
Fußgängermodelle
Dr. Tobias Kretz arbeitet in der Firma PTV Group in Karlsruhe an der Modellierung und Simulation von Fußgängerströmen. Er studierte Physik an der Universität Karlsruhe und behandelte in seiner Diplomarbeit Teilchen-Zerfallsprozesse. Anschließend führte ihn die Suche nach interessanten Anwendungen physikalischer Konzepte zur Arbeitsgruppe Physik von Transport und Verkehr an der Universität Duisburg-Essen. Dort promovierte er im Themenfeld der Fußgängersimulation bei Prof. Schreckenberg. Damit war er genau der Experte, den die ptv suchte, als sie sich entschied, die Verkehrssimulations-Software im Haus um den Aspekt der Fußgängersimulation zu erweitern. Eine erste für Karlsruhe interessante Anwendung der neuen Software VISWALK war die Simulation der Großveranstaltung Das Fest hier in Karlsruhe. Die Simulation von Fußgängerströmen ist eine noch junge Disziplin. Sie entwickelte sich zunächst für Evakuierungs- und Notfall-Szenarien. Heute dient die Fußgängersimulationssoftware beispielsweise der Planung in großen Bahnhöfen. Denn hängt die Frage, ob man einen Anschlußzug kann, nicht auch von der Problematik ab, dass man dabei von anderen Fahrgästen behindert wird? Außerdem ist die Untersuchung der von Effizienz von Laufwegen sehr hilfreich in der Planung von Bauvorhaben. In der Fußgängersimulation werden verschiedene Methoden aus der Mathematik und Physik benutzt. In der Arbeitsgruppe von Herrn Schreckenberg waren es vor allem Zellularautomaten. Im nun vorhandenen Modul VISWALK wurde bei der ptv vor allem auf das Social force Modell gesetzt, das auf einem Newtonschen Ansatz (also dem Zusammenhang von Kraft und Beschleunigung) beruht und auf eine Beschreibung durch Differentialgleichungen für die einzelnen Fußgänger führt. Dieses System muss numerisch gelöst werden. Die schrittweise Lösung entspricht dabei der zeitlichen Entwicklung der Bewegung. Die Grundidee beim Social Force Modell ist, dass man sich vorstellt, dass die am Fußgänger angreifende Kräfte seine Beschleunigung (inklusive der Richtung) verändern und damit seine Bewegung bestimmen. Das einfachste Modell ist der Wunsch das Ziel zu erreichen (driving force), denn es genügt dafür eine zum gewünschten Ziel ziehende starke Kraft. Dabei muss man aber anderen Fußgängern und Hindernissen ausweichen. Das Ausweichen kann man aber leider nicht in genau ein Modell (also genau ein erwartetes Verhalten) übersetzen; es gibt dazu einfach zu viele Einflussfaktoren. Physikalisch werden sie daher als abstoßende Kräfte im Nahfeld von anderen Fußgängern und Hindernissen modelliert. Wichtige Fragen, die im Algorithmus zu berücksichtigen sind, wären beispielsweise, wie nah geht ein typischer Fußgänger typischerweise an anderen Fußgängern vorbei geht, und welche Umwege typischerweise am attraktivsten erscheinen. Aus eigener Erfahrung kennt man den inneren Kampf, wie man mit Gruppen, die sozusagen als ein weiches Hindernis im Weg stehen, umgeht. Hindurchdrängeln vermeidet man oft. Das muss auch der Algorithmus so tun, wenn er menschliches Verhalten nachbilden soll. So kann man hier die Dichte der Gruppe in eine "Härte" des Hindernisses übersetzen. Je nachdem wie dicht gepackt der Raum ist, werden solche Entscheidungen aber auch unterschiedlich ausfallen. Berechnet wird natürlich stets die Bewegung des Schwerpunkts des Fußgängers. Für die visuelle Umsetzung im Programm wird das entsprechend graphisch aufbereitet, was natürlich auch einen gewissen Rechenaufwand verursacht. Das Modell selbst ist zeitkontinuierlich und so wird die Genauigkeit durch die für das numerische Verfahren gewählte Zeitschrittweite bestimmt. Etwa 20.000 Personen können zur Zeit in Echtzeit simuliert werden. Leider ist es im Programm bisher nahezu unmöglich zu berücksichtigen, wie sich Menschen in zusammen gehörenden Zweier- oder Dreier-Gruppen bewegen. Zum Glück ist das beispielsweise in der Simulation von Berufspendlern auf einem Bahnhof ein vernachlässigbares Phänomen. Ein weiterer Aspekt ist, dass die Ergebnisse der intern komplexen Simulation sich schließlich für den Verkehrsplaner in wenig komplexen Zahlenwerten spiegeln (wie in Dichten). Dabei muss auch eine Balance gefunden werden zwischen Komplexität des Modells und der Bedienbarkeit durch einen Verkehrsplaner im Arbeitsalltag. Zu einfache Modelle - wie solche, die nur Dichten von Personen berücksichtigen (sogenannte Makromodelle) - können eventuell nicht mehr wiedergeben, dass es in Korridoren gegenläufige Bewegungen gibt, was jedoch ein zentraler Aspekt der tatsächlichen Fußgängerbewegung ist. Daten zur Kalibrierung dieser Modelle sind nicht so einfach zu erheben. Eine Möglichkeit ist die Auswertung von Videos (z.B. von Überwachungskameras). Dabei weiß man natürlich nichts über den Hintergrund der beobachteten Personen (Alter, Größe, Dringlichkeit des Ortswechsels). In Laborexperimenten sind diese Informationen verfügbar, aber es bleibt immer eine künstliche Umgebung, die die Realitäts-Nähe der Ergebnisse potentiell gefährdet. Ein noch ganz neuer dritter Weg ist in Zusammenarbeit mit der Arbeitsgruppe von Prof. Hanebeck am KIT die Beobachtung einer jeweils einzelnen echten Person in einer virtueller Umgebung am Computer. Wir unterhielten uns ausführlich über die Begleitung des Umbaus eines Straßenabschnitts in Straßburg. In dieser Stadt wurde ein grundlegender Plan piéton beschlossen, durch den sich in den Jahren 2011-2020 die Situation für alle Verkehrsteilnehmer in der Innenstadt verändern soll. Die ptv hat konkret die Umgestaltung der Brücke Pont Kuss durch Simulationen begleitet. Da die Brücke auf dem direkten Weg vom Hauptbahnhof in die historische Innenstadt liegt, ist das Fußgängeraufkommen dort besonders hoch und wurde zur Untermauerung der Notwendigkeit eines Umbaus sorgfältig gezählt. Obwohl aus den Daten klar hervorging, dass die Verteilung des öffentlichen Raums hier dringend geändert werden sollte (mehr Platz für Fußgänger, weniger Spuren für PKW) konnte darüber hinaus die Simulation zeigen, dass durch die Einengung der Fahrspuren kein zu großer Nachteil für den Autoverkehr entsteht. In der städtischen Verkehrsplanung können Schwerpunkte (wie so ein Fußgängerplan in Straßburg) häufig durch Personen in der Verwaltung stark beeinflusst werden. Die faire Verteilung von öffentlichem Raum wird uns aber in der Zukunft noch sehr stark beschäftigen. Hier ist auch die Frage der Behandlung von Radfahrern im Stadtverkehr ein Modellierungs-Problem mit vielen offenen Fragen. Die Verwendung von Simulationen in kritischen bzw. Gefahren-Situationen ist auch nicht trivial. So hat es sich als unrealistisch erwiesen, im Zeitraffer vorausberechnete Situationen als Hilfestellung für Entscheidungen zu benutzen. Man braucht in solchen Situationen Ergebnisse, die in wenigen Augenblicken gute Ratschläge geben, wie Fußgängerströme geleitet werden sollten. Das geht zum Glück häufig über Makromodelle, die nur die Dichten beachten. Dies sind einfach genug analysierbare und dabei aussagekräftige Größen in einer Krisensituation. Neue Aufgaben für die Verbesserung von Fußgänger-Simulationen stellen sich jedes Jahr. Ein wichtiger Aspekt ist im Moment, dass die Software-Umsetzung sehr viel stärker parallelisiert werden muss, um leistungsstärker werden zu können. Literatur und weiterführende Informationen D. Helbing, I. Farkas, T. Vicsek: Simulating dynamical features of escape panic, Nature 407 (2000) 487-490. C. Burstedde e.a.: Simulation of pedestrian dynamics using a two-dimensional cellular automaton, Physica A: Statistical Mechanics and its Applications 295 3–4 (2001) 507–525. P.G. Gipps: Simulation of pedestrian traffic in buildings, Schriftenreihe Institut für Verkehrswesen Universität Karlsruhe (1987). T. Kretz, F. Reutenauer, F. Schubert: Multi-Modal Simulation-Based Planning For Pedestrians, 92nd Annual Meeting of the Transportation Research Board (2013). J. Bamberger e.a.: Crowd Research at School: Crossing Flows, Traffic and Granular Flow (2013) 137-144, Springer-Verlag. T. Kretz: A Link to Practice – a Reply to Urs Walter's Opening Presentation at PED 2012, Transportation Research Procedia, Special Issue PED 2014, 177–182, Elsevier Verlag. Podcasts und Videos PTV Youtube-Kanal H. Benner: Fußgänger, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/fussgaenger U. Leyn: Verkehrswesen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 88, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/verkehrswesen M. Petersen: Unfallvorhersage, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 29, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/unfallvorhersage
4/21/2016 • 1 hour, 1 minute, 5 seconds
Crop Growth
This is the first of four conversation Gudrun had during the British Applied Mathematics Colloquium which took place 5th – 8th of April 2016 in Oxford. Josie Dodd finished her Master's in Mathematical and Numerical Modelling of the Atmosphere and Oceans at the University of Reading. In her PhD project she is working in the Mathematical Biology Group inside the Department of Mathematics and Statistics in Reading. In this group she develops models that describe plant and canopy growth of the Bambara Groundnut - especially the plant interaction when grown as part of a crop. The project is interdisciplinary and interaction with biologists is encouraged by the funding entity. Why is this project so interesting? In general, the experimental effort to understand crop growth is very costly and takes a lot of time. So it is a great benefit to have cheaper and faster computer experiments. The project studies the Bambara Groundnut since it is a candidate for adding to our food supply in the future. It is an remarkably robust crop, draught tolerant and nitrogent inriching, which means the production of yield does not depend on fertilizer. The typical plant grows 150 days per year. The study will find results for which verfication and paramater estimations from actual green house data is available. On the other hand, all experience on the modelling side will be transferable to other plants up to a certain degree. The construction of the mathematical model includes finding equations which are simple enough but cover the main processes as well as numerical schemes which solve them effectively. At the moment, temperature and solar radiation are the main input to the model. In the future, it should include rain as well. Another important parameter is the placement of the plants - especially in asking for arrangements which maximize the yield. Analyzing the available data from the experimental partners leads to three nonlinear ODEs for each plant. Also, the leave production has a Gaussian distribution relationship with time and temperature. The results then enter the biomass equation. The growth process of the plant is characterized by a change of the rate of change over time. This is a property of the plant that leads to nonlinearity in the equations. Nevertheless, the model has to stay as simple as possible, while firstly, bridging the gap to complicated and more precise models, and secondly, staying interpretable to make people able to use it and understand its behaviour as non-mathematicians. This is the main group for which the models should be a useful tool. So far, the model for interaction with neighbouring plants is the computational more costly part, where - of course - geometric consideration of overlapping have to enter the model. Though it does not yet consider many plants (since green house sized experimental data are available) the model scales well to a big number of plants due to its inherent symmetries. Since at the moment the optimizaition of the arrangements of plants has a priority - a lot of standardization and simplifying assumptions are applied. So for the future more parameters such as the input of water should be included, and it would be nice to have more scales. Such additional scales would be to include the roots system or other biological processes inside the plant. Of course, the green house is well controlled and available field data are less precise due to the difficulty of measurements in the field. During her work on the project and as a tutor Josie Dodd found out that she really likes to do computer programming. Since it is so applicable to many things theses skills open a lot of doors. Therefore, she would encourage everybody to give it a try. Literature and additional material Crops for the Future website Asha Sajeewani Karunaratne: Modelling the response of Bambara groundnut (Vigna subterranea (L.) Verdc) for abiotic stress, PhD thesis, University of Nottingham (2009). A.S. Karunaratne e.a.: Modelling the canopy development of bambara groundnut, Agricultural and Forest Meteorology 150, (7–8) 2010, 1007–1015.
4/14/2016 • 20 minutes, 47 seconds
Verkehrswesen
Im Gespräch mit Ulrike Leyn wollten wir den Blick auf Aufgaben im heutigen Verkehrswesen richten. Wir begannen die Unterhaltung damit, zu erkunden, auf welchem Weg Ulrike Leyn zum Verkehrswesen gekommen ist und schließlich für das Thema Feuer gefangen hat. Am Anfang stand wohl ihre Entscheidung für das Studienfach Wirtschaftsingenieurwesen aus dem einfachen und sehr nachvollziehbaren Grund, sich damit thematisch nicht so stark festlegen zu müssen und im Anschluss sehr viele auch sehr verschiedenartige Möglichkeiten des beruflichen Einstiegs zu haben. Im Wirtschaftsingenieurwesen gibt es je nach Universität verschiedene Ausbildungsstrategien. An einigen muss man sich zu Beginn auf eine Ingenieurdisziplin festlegen, die dann mit ökonomischen Fächern kombiniert wird. In Karlsruhe ist die Ausbildung jedoch ingenieurtechnisch sehr breit angelegt. Es werden also Grundlagen für sehr verschiedene Ingenieurwissenschaften im Studium gelehrt und erst in der Vertiefung erfolgt eine Spezialisierung nach eigener Neigung. Außerdem ist auch der Anteil zwischen ökonomisch ausgerichteten und ingenieurstechnischen Fächern am Karlsruher Institut für Technologie (KIT) je nach persönlicher Wahl stark variabel. Das waren zwei Aspekte, die Ulrike Leyn darin bestärkten in Karlsruhe zu studieren. Für sie war es schließlich die Wahl der Fächerkombination 'Grundlagen der Raum- und Infrastrukturplanung', die zum ersten Schritt in die Richtung Verkehrwsesen wurde. Die Interdisziplinarität des Themas hat sie von Anfang an sehr angesprochen. Deshalb schrieb sie schließlich auch ihre Diplomarbeit am Institut für Verkehrswesen. Direkt im Anschluss begann sie, als wissenschaftliche Mitarbeiterin am Institut zu arbeiten. In ihrer jetzigen Tätigkeit im Verkehrswesen kann Ulrike Leyn vor allem ausnutzen, dass sie im Studium gelernt hat, sich in sehr viele verschiedene Probleme selbstständig einzuarbeiten. Außerdem erwies sich ihre Tätigkeit als Tutorin der Vorlesung Programmieren in Java als sehr hilfreich, um Simulationen anzupassen und automatisiert auszuwerten. In Karlsruhe am KIT ist Verkehrswesen als Teil des Bauingenieurwesens an der KIT-Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften etabiliert. Inzwischen gibt es auch einen eigenen Master-Studiengang Mobilität und Infrastruktur. Neben der Möglichkeit als Ingenieurs-Vertiefung im Wirtschaftsingenieurwesen (und der technischen VWL) kann es auch als Zusatzfach in Informatik, Physik oder Wirtschaftsmathematik gewählt werden oder als technisches Fach im Master Technomathematik. Die Lehrangebote des Instituts erstrecken sich über mehrere Bereiche. Das Projekt, an dem Ulrike Leyn für lange Zeit gearbeitet hat und das gerade abgeschlossen wurde, soll die Möglichkeit bieten, Verkehrs-Simulation auf Computern so zu verwenden, dass man sie einfacher als Ergänzung bzw. Ersatz der Richtlinien im Handbuch für die Bemessung von Straßenverkehrsanlagen (HBS) einsetzen kann. Diese Richtlinie hilft die Qualitätsstufe von Anlagen einzuschätzen. Allerdings - insbesondere bei Nicht-Standard-Situationen ist es heute schon üblich, statt der stark vereinfachenden Rechnungen nach dieser Richtlinie, Simulationen zu benutzen. Denn die Voraussetzungen für die Anwendung der Richtlinien sind nur dann gegeben, wenn auch vorher Richtlinen-getreu gebaut wurde für Normalverkehrssituationen. Ein Schwerpunkt der Untersuchungen waren Autobahnen, wo z.B. Ein- und Ausfahrten und starke Anstiege besondere Herausforderungen an die Modellierung stellen. Das Ziel war kurz gesagt das Finden von Parametern, bei denen die durch Simulation erzeugten Ergebnisse denen nach der Richtlinie berechneten entsprechen. Das klingt einfacher als es ist. Ein generelles Problem ist beispielsweise, dass es häufig nicht genug verlässliche Verkehrsdaten gibt bzw. die Güte der Daten nicht offensichtlich ist. Trotzdem soll mit den so gefundenen Einstellungen der Realität möglichst gut entsprechende Simulationen möglich werden - sogar falls keine Daten vorhanden sind - wenn man nun mit den Einstellungen arbeitet, die im Projekt gefunden wurden. Die Parameter sind zugeschnitten auf die Situation auf deutschen Autobahnen (also auch ohne Tempolimit). Der Einfluss verschieden großer Anteile von Schwerverkehr auf der Autobahn wurde untersucht und als etwas vereinfachender Standard dann 10% gewählt. Es gibt neben Standard-LKWs auch längere Zugverbände, die dann mehr Platz brauchen. Das wird auch beim Einfädeln relevant. Bei der Bewertung der Güte der Modelle werden vor allem Endergebnisse von Simulationen für festgelegte makroskopische Größen wie z.B. die Kapazität der Strecke (nämlich typischerweise etwa 2000 PKW-Einheiten pro Fahrstreifen pro Stunde) zugrunde gelegt. Das Messen der Kapazität ist aber gar nicht so einfach, weil man eigentlich nur konkrete Fahrzeuganzahlen pro Zeit- oder Raumeinheit der Simulation oder der Realität entnehmen kann. Die Kapazität ist die Obergrenze für realisierbare Dichten, also das, was kurz vor dem Zusammenbrechen des Verkehrs als maximaler Zustand vorliegt. Eine Verkehrssimulation zum zusammenbrechen zu bringen ist aber nicht so einfach, weil es nicht vorgesehen ist. Verkehrswesen hat viele sehr unterschiedliche Aspekte. Sie reichen von sehr technisch motivierten Arbeitsbildern zu mehr soziologisch geprägten. Letztere sind z.B. Fragen, warum Wege zurückgelegt werden, wie Verkehrsmittel ausgewählt werden und Veränderungen hierbei. Außerdem sind u.a. autonomes Fahren und Elektromobilität neue und spannende Themen. Literatur und weiterführende Informationen HBS-konforme Simulation des Verkehrsablaufs auf Autobahnen Informationen für Studieninteressierte Wirtschaftswissenschaften am KIT Handbuch für die Bemessung von Straßenverkehrsanlagen Podcasts G.Heller: Klothoiden, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 50, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/klothoiden H.Benner: Fußgänger, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 43, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/fussgaenger L. Osovtsova: Logistik und Big Data, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 33, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/logistik M. Petersen: Unfallvorhersage, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 29, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/unfallvorhersage T. Arens: Lärmschutz, Gespräch mit S. Thäter im Modellansatz Podcast, Folge 16, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/laermschutz
4/7/2016 • 41 minutes, 3 seconds
Perkolation
Sebastian Ziesche hat bei Martin Zerner an der Universität in Tübingen Perkolationstheorie kennen gelernt und sich von der Faszination seines akademischen Lehrers anstecken lassen. Er hat nach dem Diplom in Karlsruhe in der Arbeitsgruppe von Günther Last das Vorhaben verfolgt, die Perkolationsmethoden auf zufällige Mosaike zu erweitern und darüber zu promovieren. Dieses Projekt hat er Anfang 2016 erfolgreich abgeschlossen. Perkolation ist ein Modell der statistischen Physik zur Modellierung poröser Strukturen mit Hilfe von Zufallsprozessen. Es geht dabei vor allem um die Quantifizierung von Durchlässigkeit. Als einfachstes Beispiel kann man sich ein regelmäßiges Gitter z.B. in der Ebene oder im Raum vorstellen, in dem jeder Knoten zufällig und unabhängig von allen anderen Knoten mit Wahrscheinlichkeit 1-p entfernt wird. Eine wichtige Frage ist, wie groß Zusammenhangskomponenten in so einer Struktur sein können. Dieses Modell hat nur einen Parameter (mit welcher Wahrscheinlichkeit p verbleibt ein Knoten im Gitter oder nicht) um verschiedene Strukturen unterscheidbar zu machen. Untersuchte Eigenschaften der Zusammenhangskomponeten bzw. Cluster sind Fragen nach deren Durchmesser oder Volumen. In der Regel eignet sich das Zählen von Knoten gut als Entfernungsmaß. Insbesondere die Frage, ob Cluster unendlich groß sein können erweist sich als interessant. Die Wahrscheinlichkeit dafür, dass es unendlich große Cluster gibt, hängt von dem Parameter p ab und ist entweder 0 (unwahrscheinlich) oder 1 (d.h. fast sicher). Das liegt daran, dass nach dem Null-Eins-Gesetz von Kolmogorov Ereignisse, die nicht vom Zustand endlich vieler Knoten abhängen, nur die Wahrscheinlichkeit 0 oder 1 haben können. Nach Überschreiten eines gewissen (sogenannten kritischen) Parameters wird also die Wahrscheinlichkeit, dass es einen unendlich großes Cluster gibt, von 0 auf 1 springen. Das Verhalten im ebenen Fall ist deutlich besser verstanden und zeigt im Dreiecks-Gitter eine gewisse Dualität, da immer entweder die vorhandenen oder die gelöschten Knoten einen unendlich großen Cluster bilden (außer im kritischen Fall). Im drei-dimensionalen Fall hingegen könnten unendlich große Cluster in beiden Mengen gleichzeitig existieren, falls der kritische Parameter kleiner als 1/2 ist. Mathematisch ist das gar nicht so einfach zu untersuchen. Ein typisches Verfahren ist es, Würfel der Kantenlänge n als Repräsentanten in allen möglichst vielen Realisierungen zu simulieren (die uns verfügbare Rechenleistung begrenzt dabei die Anzahl simulierbarer Realisierungen) und aus den so gewonnenen Strukturbeobachtungen auf das unendlich große Gebiet zu schließen. Die Perkolationstheorie fragt anders herum auch nach lokalen Konsequenzen aus dem Wissen um die Existenz unendlich großer Cluster. Die FKG-Ungleichung ist hier in beiden Richtungen (von lokal nach global und umgekehrt) ein Hauptwerkzeug. Sebastian Ziesche hat die Perkolationstheorie, die auf Gittern verstanden ist, auf zufällige Graphen erweitert. In einem zweistufigen Prozess wird also zunächst ein zufälliges Gitter erzeugt, das dann ausgedünnt wird. Ein Beispiel ist ein Voronoi-Mosaik. Die Methoden der klassischen Perkolationstheorie müssen durch Methoden ergänzt werden, die die besonderen geometrische Eigenschaften ausnutzen. In unserem Gespräch unterhielten wir uns außerdem darüber, wie wichtig es ist, dass Wissenschaftler den richtigen Rahmen finden, um junge Leute für ihre Themen zu begeistern und dass die Arbeit am Promotionsprojekt durchaus nicht geradlinig ist sondern von (postiven wie negativen) Überraschungen geprägt ist. Vieles lässt sich zu Beginn nicht absehen. Literatur und weiterführende Informationen G.R. Grimmett: Perkolation, Springer, 1999. A. Okabe et al.: Spatial Tessellations: Concepts and Applications of Voronoi Diagrams, 2nd Ed., Wiley, 2000.Podcasts A. August: Metallschaum, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 37, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/metallschaum
3/31/2016 • 42 minutes, 13 seconds
Complex Geometries
Sandra May works at the Seminar for Applied Mathematics at ETH Zurich and visited Karlsruhe for a talk at the CRC Wave phenomena. Her research is in numerical analysis, more specifically in numerical methods for solving PDEs. The focus is on hyperbolic PDEs and systems of conservation laws. She is both interested in theoretical aspects (such as proving stability of a certain method) and practical aspects (such as working on high-performance implementations of algorithms). Sandra May graduated with a PhD in Mathematics from the Courant Institute of Mathematical Sciences (part of New York University) under the supervision of Marsha Berger. She likes to look back on the multicultural working and learning experience there. We talked about the numerical treatment of complex geometries. The main problem is that it is difficult to automatically generate grids for computations on the computer if the shape of the boundary is complex. Examples for such problems are the simulation of airflow around airplanes, trucks or racing cars. Typically, the approach for these flow simulations is to put the object in the middle of the grid. Appropriate far-field boundary conditions take care of the right setting of the finite computational domain on the outer boundary (which is cut from an infinite model). Typically in such simulations one is mainly interested in quantities close to the boundary of the object. Instead of using an unstructured or body-fitted grid, Sandra May is using a Cartesian embedded boundary approach for the grid generation: the object with complex geometry is cut out of a Cartesian background grid, resulting in so called cut cells where the grid intersects the object and Cartesian cells otherwise. This approach is fairly straightforward and fully automatic, even for very complex geometries. The price to pay comes in shape of the cut cells which need special treatment. One particular challenge is that the cut cells can become arbitrarily small since a priori their size is not bounded from below. Trying to eliminate cut cells that are too small leads to additional problems which conflict with the goal of a fully automatic grid generation in 3d, which is why Sandra May keeps these potentially very small cells and develops specific strategies instead. The biggest challenge caused by the small cut cells is the small cell problem: easy to implement (and therefore standard) explicit time stepping schemes are only stable if a CFL condition is satisfied; this condition essentially couples the time step length to the spatial size of the cell. Therefore, for the very small cut cells one would need to choose tiny time steps, which is computationally not feasible. Instead, one would like to choose a time step appropriate for the Cartesian cells and use this same time step on cut cells as well. Sandra May and her co-workers have developed a mixed explicit implicit scheme for this purpose: to guarantee stability on cut cells, an implicit time stepping method is used on cut cells. This idea is similar to the approach of using implicit time stepping schemes for solving stiff systems of ODEs. As implicit methods are computationally more expensive than explicit methods, the implicit scheme is only used where needed (namely on cut cells and their direct neighbors). In the remaining part of the grid (the vast majority of the grid cells), a standard explicit scheme is used. Of course, when using different schemes on different cells, one needs to think about a suitable way of coupling them. The mixed explicit implicit scheme has been developed in the context of Finite Volume methods. The coupling has been designed with the goals of mass conservation and stability and is based on using fluxes to couple the explicit and the implicit scheme. This way, mass conservation is guaranteed by construction (no mass is lost). In terms of stability of the scheme, it can be shown that using a second-order explicit scheme coupled to a first-order implicit scheme by flux bounding results in a TVD stable method. Numerical results for coupling a second-order explicit scheme to a second-order implicit scheme show second-order convergence in the L^1 norm and between first- and second-order convergence in the maximum norm along the surface of the object in two and three dimensions. We also talked about the general issue of handling shocks in numerical simulations properly: in general, solutions to nonlinear hyperbolic systems of conservation laws such as the Euler equations contain shocks and contact discontinuities, which in one dimension express themselves as jumps in the solution. For a second-order finite volume method, typically slopes are reconstructed on each cell. If one reconstructed these slopes using e.g. central difference quotients in one dimension close to shocks, this would result in oscillations and/or unphysical results (like negative density). To avoid this, so called slope limiters are typically used. There are two main ingredients to a good slope limiter (which is applied after an initial polynomial based on interpolation has been generated): first, the algorithm (slope limiter) needs to detect whether the solution in this cell is close to a shock or whether the solution is smooth in the neighborhood of this cell. If the algorithm thinks that the solution is close to a shock, the algorithm reacts and adjusts the reconstruted polynomial appropriately. Otherwise, it sticks with the polynomial based on interpolation. One commonly used way in one dimension to identify whether one is close to a shock or not is to compare the values of a right-sided and a left-sided difference quotient. If they differ too much the solution is (probably) not smooth there. Good reliable limiters are really difficult to find. Literature and additional material S. May, M. Berger: An Explicit Implicit Scheme for Cut Cells in Embedded Boundary Meshes, Preprint available as SAM report, number 2015-44, 2015. S. May, M. Berger: A mixed explicit implicit time stepping scheme for Cartesian embedded boundary meshes, Finite Volumes for Complex Applications VII - Methods and Theoretical Aspects, pp. 393-400, Springer, 2014. S. May, M. Berger: Two-dimensional slope limiters for finite volume schemes on non-coordinate-aligned meshes, SIAM J. Sci. Comput. 35 (5) pp. A2163-A2187, 2013.
3/24/2016 • 32 minutes, 39 seconds
Helmholtzzerlegung
Jens Babutzka hat Anfang 2016 seine Promotion an der KIT-Fakultät für Mathematik verteidigt. Das Gespräch dreht sich um einen Teil seiner Forschungsarbeit - dem Nachweis der Gültigkeit der sogenannten Helmholtz Zerlegung im Kontext von Gebieten mit einer sich periodisch wiederholenden Geometrie. Das lässt sich für die Untersuchung von photonischen Kristallen ausnutzen unter der Wirkung einer Zeit-harmonischen Wellengleichung. Für die Untersuchung von partiellen Differentialgleichungen auf Lösbarkeit, Eindeutigkeit der Lösungen und deren Regularität gibt es verschiedene Grundwerkzeuge. Eines ist die Helmholtz Zerlegung. Falls sie in einem Raum möglich ist, kann man jedes Vektorfeld des Raumes eindeutig aufteilen in zwei Anteile: einen Gradienten und einen zweiten Teil, der unter der Anwendung der Divergenz das Ergebnis Null hat (man nennt das auch divergenzfrei). Wann immer Objekte miteinander skalar multipliziert werden, von denen eines ein Gradient ist und das andere divergenzfrei, ist das Ergebnis Null. Anders ausgedrückt: sie stehen senkrecht aufeinander. Die Untersuchung der partiellen Differentialgleichung lässt sich dann vereinfachen, indem eine Projektion auf den Teilraum der divergenzfreien Funktionen erfolgt und erst im Anschluss die Gradienten wieder "dazu" genommen, also gesondert behandelt werden. Da die Eigenschaft divergenzfrei auch physikalisch als Quellenfreiheit eine Bedeutung hat und alle Gradienten wirbelfrei sind, ist für verschiedene Anwendungsfälle sowohl mathematisch als auch physikalisch motivierbar, dass die Aufteilung im Rahmen der Helmholtz Zerlegung hilfreich ist. Im Kontext der Strömungsmechanik ist die Bedingung der Divergenzfreiheit gleichbedeutend mit Inkompressibilität des fließenden Materials (dh. Volumina ändern sich nicht beim Einwirken mechanischer Kräfte). Für das Maxwell-System kann es sowohl für das magnetische als auch für das elektrische Feld Divergenzfreiheitsbedingungen geben. Ob die Helmholtz Zerlegung existiert, ist im Prinzip für viele Räume interessant. Grundbausteine für die Behandlung der partiellen Differentialgleichungen im Kontext der Funktionalanalysis sind die Lebesgue-Räume . Eine (verallgemeinerte) Funktion ist in , wenn das Integral (des Betrags) der q-ten Potenz der Funktion über Omega existiert. Eine Sonderrolle spielt hier der Fall , weil dieser Raum ein Skalarprodukt hat. Das gibt ihm eine sehr klare Struktur. Darüber hinaus ist er zu sich selbst dual. Unter anderem führt das dazu, dass die Helmholtz Zerlegung in für beliebige Gebiete mit genügend glattem Rand immer existiert. Wenn nicht ist, sind Gebiete bekannt, in denen die Helmholtz Zerlegung existiert, aber auch Gegenbeispiele. Insbesondere bei der Behandlung von nichtlinearen Problemen reicht es aber häufig nicht, sich auf den Fall zu beschränken, sondern die Helmholtz Zerlegung für möglichst viele wird eine wesentliche Voraussetzung für die weitere Theorie. Das liegt u.a. an der dann verfügbaren Einbettung in Räume mit punktweisen Eigenschaften. Jens Babutzka hat in seiner Promotion unter anderem bewiesen, dass die Helmholtz Zerlegung für -Räume für die Gebiete mit einer sich periodisch wiederholenden Struktur gilt. Mathematisch muss er hierfür nachweisen, dass das schwache Neumannproblem immer eine (bis auf Konstanten) eindeutige Lösung hat in . Dabei hilft ihm die periodische Struktur der Geometrie. Mithilfe eines erst kürzlich bewiesenen Theorems von Bernhard Barth über Blochoperatoren kann er das Problem auf eine Familie von Phasenoperatoren auf der (beschränkten) periodischen Zelle reduzieren. Falls diese Operatoren regulär genug sind, lassen sie sich fortsetzen von auf . Anschließend überprüft er, ob die so erzeugte Abbildung auch wirklich die Helmhotz Zerlegung ist. Hier ist ein wesentliches Hilfsmittel, dass unendlich glatte Funktionen mit kompaktem Träger dicht in den Teilräumen liegen. Außerdem ist die Fouriertheorie in der besonderen Form der Blochoperatoren hilfreich. Sie hilft später auch beim Auffinden des Spektrums des betrachteten Wellenoperators. Für beschränkte Gebiete hängt es im Wesentlichen von der Glattheit des Randes ab, ob die Helmholtz Zerlegung in gilt. Das liegt u.a. daran, dass man in der Lage sein muss, eine eindeutige Normalenrichtung für jeden Punkt des Randes zu finden. Für Knicke im Rand kann es hier Probleme geben, die dazu führen, dass das schwache Neumann Problem nur noch für in einem kleineren Intervallbereich lösbar ist, und nicht mehr für alle zwischen und wie das bei glattem Rand der Fall ist. Literatur und weiterführende Informationen A. Figotin and P. Kuchment: Band-Gap Structure of Spectra of Periodic Dielectric and Acoustic Media. II. Two-Dimensional Photonic Crystals, SIAM J. Appl. Math., 56, 1561–1620, 1995. P. Galdi: An Introduction to the Mathematical Theory of the Navier-Stokes Equations - Steady-State Problems, Springer, 2011. B. Barth: The Bloch Transform on Lp-Spaces, KIT-Dissertation, 2013. W. Dörlfer e.a: Photonic Crystals: Mathematical Analysis and Numerical Approximation, Birkhäuser, 2011. M. Geissert e.a.: Weak Neumann implies Stokes, Journal für die reine und angewandte Mathematik 669, 75–100, 2012. Quellen für physikalische Grundlagen A. Birner e.a.: Photonische Kristalle, Physikalische Blätter 55 (1999), 27-33, 1999. Photonische Kristalle
3/17/2016 • 39 minutes, 2 seconds
Newton-Verfahren
Mathematik mit Kunst und Design erklären - das war ein Ziel des Cooking Math-Projekts. Robert Winkler forscht an der Fakultät für Mathematik zu numerischen Verfahren für schlecht gestellte Probleme. Das hilft z.B. Elektrische Impedanztomographie genauer und schneller zu machen. Seine Teilnahme am Cooking Math Projektes hat uns zum jetzigen Zeitpunkt zusammengeführt. Die Aufgabenstellung der Elektrischen Impedanztomographie ist es, aus Messungen auf der Oberfläche eines Körpers Rückschlüsse auf die Zusammensetzung im Inneren zu ziehen. Dazu dient bei der Elektrische Impedanztomographie die elektrische Leitfähigkeit im Innern, die Auswirkungen auf gemessene elektrische Potentiale an der Körperoberfläche hat. Aus physikalischen Zusammenhängen (hier Ohmsches Gesetz und Kirchhoffsche Regeln) lassen sich partielle Differentialgleichungen herleiten, die aus der Leitung im Innern die Oberflächenpotentiale berechenbar machen. Das nennt man Vorwärtsproblem. In der Praxis braucht man aber genau die andere Richtung - das sogenannte inverse Problem - denn man hat die Werte auf dem Rand gemessen und will unter den gleichen physikalischen Annahmen auf den Ablauf im Inneren schließen. Der Zusammenhang, der so modellhaft zwischen Leitfähigkeit und Potential am Rand entsteht, ist hochgradig nichtlinear. Außerdem ist er instabil, das heißt kleine Messfehler können dramatische Auswirkungen auf die Bestimmung der Leitfähigkeit haben. Daher müssen bei der numerischen Bearbeitung Verfahren gefunden werden, die die partielle Differentialgleichung numerisch lösen und dabei diese Nichtlinearität stabil behandeln können. Etabliert und sehr effektiv ist dabei das Newtonverfahren. Es ist weithin bekannt zur Nullstellensuche bei Funktionen von einer Variablen. Die grundlegende Idee ist, dass man ausgehend von einem Punkt in der Nähe der Nullstelle den Tangenten an der Funktion folgt um sich schrittweise der Nullstelle zu nähern. Durch die Information, die in der Tangentenrichtung verschlüsselt ist, entsteht so ein Verfahren zweiter Ordnung, was in der Praxis heißt, dass sich nach kurzer Zeit in jedem Schritt die Zahl der gültigen Stellen verdoppelt. Großer Nachteil ist, dass das nur dann funktioniert, wenn man nahe genug an der Nullstelle startet (dh. in der Regel braucht man zuerst ein Verfahren, das schon eine gute erste Schätzung für die Nullstelle liefert). Außerdem gibt es Probleme, wenn die Nullstelle nicht einfach ist. Wenn man das Newtonverfahren zum finden von Optimalstellen nutzt (dort wo die Ableitung eine Nullstelle hat), kann es natürlich nur lokale Minima/Maxima finden und auch nur dasjenige, das am nächsten vom Startwert liegt. Im Kontext der inversen Probleme wird das Newtonverfahren auch eingesetzt. Hier muss natürlich vorher eine geeignete Verallgemeinerung gefunden werden, die so wie die Ableitungen im eindimensionalen Fall eine Linearisierung der Funktion in einer (kleinen) Umgebung des Punktes sind. Der Kontext, in dem das recht gut möglich ist, ist die schwache Formulierung der partiellen Differentialgleichung. Der passende Begriff ist dann die Fréchet-Ableitung. Betrachtet man das Problem mathematisch in einem Raum mit Skalarprodukt (Hilbertraum), kann die Linearisierung mit dem Verfahren der konjugierten Gradienten behandelt werden. Dieses Verfahren findet besonders schnell eine gute Näherung an die gesuchte Lösung, indem es sich Eigenschaften des Skalarprodukts zunutze macht und die aktuelle Näherung schrittweise in besonders "effektive" Richtungen verbessert. Um das lineare Problem stabiler zu machen, nutzt man Regularisierungen und geht von vornherein davon aus, dass man durch Fehler in den Daten und im Modell ohnehin in der Genauigkeit eingeschränkt ist und in der numerischen Lösung nicht versuchen sollte, mehr Genauigkeit vorzutäuschen. Eine typische Regularisierung bei der Elektrische Impedanztomographie ist die Erwartung, dass die Leitfähigkeit stückweise konstant ist, weil jedes Material eine zugehörige Konstante besitzt. Im zugehörigen Cooking Math-Projekt soll der Modellerierungs- und Lösungsfindungsprozess visualisiert werden. Eine Idee hierfür ist das Spiel "Topfschlagen". Literatur und weiterführende Informationen R. Winkler, A. Rieder: Model-Aware Newton-Type Inversion Scheme for Electrical Impedance Tomography, Preprint 14/04 am Institut für Wissenschaftliches Rechnen und Mathematische Modellbildung, KIT, 2014. (Eingereicht zur Veröffentlichung in Inverse Problems 31, (2015) 045009). O. Scherzer: Handbook of Mathematical Methods in Imaging, Springer Verlag, ISBN 978-0-387-92919-4, 2011. Podcasts S. Hollborn: Impedanztomographie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 68, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/impedanztomographie J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration D. Hipp: Dynamische Randbedingungen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 83, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/dynamische-randbedingungen
3/10/2016 • 31 minutes, 11 seconds
Dynamische Randbedingungen
David Hipp hat am Projekt Cooking Math mitgearbeitet. In seinem darin vorgestellten Forschungsprojekt betrachtet er eine relativ einfache Form der Wellengleichung, die jedoch gut für die Beschreibung von akustischen Wellen geeignet ist. Die Gleichung beschreibt die Wellenausbreitung im Raum mit Hilfe einer partiellen Differentialgleichung. Die Lösung der Wellengleichung ist eine Funktion deren Variablen die Zeit und der Ort sind. Konkret werden in der Gleichung zeitliche und räumliche Änderungen des Zustands, also der Funktion, in Beziehung gesetzt, um die Wellenausbreitung zu beschreiben. Das mathematische Modell für Wellenausbreitung in beschränkten Gebieten umfasst neben der partiellen Differentialgleichung (die hier die Wellengleichung ist) auch noch die Anfangsbedingung, die den Zustand und die Geschwindigkeit zu Beginn des Prozesses festlegt, sowie die Bedingungen am Rand des Gebietes. Physikalisch ist klar, dass Wellen, wenn sie auf die Oberfläche am Rand treffen beispielsweise reflektiert, gebrochen oder gestreut werden können - je nachdem welche Materialeigenschaften der Rand hat. David Hipp untersucht in seiner Forschung insbesondere den Einfluss der Randbedingungen auf die Simulationen solcher Probleme - in seinem Fall also die Wellenausbreitung im Raum. Klassisch wird häufig die Dirichlet oder Neumann-Randbedingung gewählt bzw. die Robin Bedingung als Mischung der beiden. Diese drei Bedingungen auf dem Rand sind allerdings nicht immer realistisch genug, weil sie keine Bewegungen auf dem Rand erlauben.. Deshalb untersucht man derzeit dynamische Randbedingungen - das sind eben solche Bedingungen, die Bewegungen der Welle auf dem Rand zulassen. Damit kann die Wellen Energie an die Wand abgeben und die Wand selbst aktiver Teil der Wellenausbreitung wird. Das kann dann sogar zu Oberflächenwellen auf der Wand führen. Konventionelle numerische Verfahren müssen auf diese neuartigen Randbedingungen erst angepasst werden. Zwar kann David Hipp auf die Finite Elemente Diskretisierung im Raum in Kombination mit klassichen Zeitschrittverfahren zurückgreifen, jedoch muss geprüft werden ob diese Verfahren immer noch so gute Ergebnisse liefern, wie man sie von üblichen Anwendungen gewohnt ist. Eine Herausforderung der dynamischen Randbedingungen ist es, dass unterschiedliche Skalen im Prozess auftreten können, die dann auch so berücksichtigt werden müssen. Zum Beispiel schwingen die Wand und die akustische Welle mit unterschiedlichen Geschwindigkeiten oder Frequenzen. Im Moment genügt es für seine Testrechnungen, das Randgitter der FE-Diskretisierung zu belassen. In Zukunft geht es aber auch darum, hier Anpassungen für unterschiedlichste Materialien möglich zu machen um den verschiedenen Skalen gerecht zu werden. David Hipp ging im Cooking Math Projekt sehr offen und mit wenigen konkreten Vorstellungen in die Zusammenarbeit mit der Hochschule für Gestaltung (HfG) hinein. Schlussendlich ist das vorliegende Ergebnis der Zusammenarbeit mit Oliver Jelko von der HfG eine Mischung aus Lehrvideo zur Mathematik der Wellenausbreitung und professioneller Animation numerischer Testrechnungen für drei unterschiedliche Randbedingungen: Dirichlet, Neumann und akustische Randbedingung. Die akustische Randbedingung ist eine dynamische Randbedingung, die auf der modellhaften Vorstellung beruht, dass die Wand aus vielen winzigen Federn besteht, welche zu schwingen beginnen, wenn sie durch auftreffende akustische Wellen dazu angeregt werden. Als Mathematiker gehört die visuelle Darstellung der Ergebnisse zu unserer Arbeit und ist z.B. auch eine Form von Verifizierung. Aber die professionelle Animation zu Dirichlet-, Neumann und akustischen Randbedingungen durch einen Gestalter ist leichter zugänglich und erlaubt ein intuitives Verständnis. Das Video aus dem Cooking Math Projekt Literatur und Zusatzinformationen J. T. Beale, S. I. Rosencrans: Acoustic boundary conditions, Bull. Amer. Math. Soc. 80, 1276-1278, 1974. S. Larsson, V. Thomee: Partial Differential Equations with Numerical Methods, Springer, 2003. V. Rao: Boundary Condition Thinking, ein populärwissenschaftlicher Zugang zu Randbedingungen, 2011. R.P. Vito and S.A. Dixon: Blood Vessel Constitutive Models, 1995–2002, Annual Review of Biomedical Engineering 5, 413-439, 2003. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting P. Krämer: Zeitintegration, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 82, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/zeitintegration
3/3/2016 • 41 minutes, 48 seconds
Zeitintegration
Die numerische Zeitintegration gewöhnlicher und partieller Differentialgleichungen ist an der Fakultät für Mathematik ein großes Forschungsgebiet, insbesondere in dem kürzlich gestarteten Sonderforschungsbereich SFB1173 zum Thema Wellenphänomene. Das Ziel dieser Forschung ist es, numerische Verfahren für Probleme zu entwickeln, für die man keine analytische Lösung angeben kann. Patrick Krämer forscht hierbei an besonders effizienten Verfahren für Beispiele aus der Quantenphysik, speziell der Maxwell-Klein-Gordon Gleichung. Darin ist die Klein-Gordon-Gleichung mit den Maxwell-Gleichungen verbunden. Die Klein-Gordon Gleichung ist das relativistische Analogon zur Schrödingergleichung, die die nicht-relativistische Bewegung atomarer Teilchen bzw. dessen Wahrscheinlichkeitsverteilung im Raum modelliert. Durch die Kombination mit den Maxwellgleichungen können nun die Wechselwirkung von elektromagnetischen Feldern mit den Teilchen unter Berücksichtigung relativistischer Effekte beschrieben werden. Die Lösung der Maxwell-Klein-Gordon Gleichung kann als Welle betrachtet werden, die sehr schnelle zeitliche Oszillationen aufweist. Um eine gute numerische Lösung der Maxwell-Klein-Gordon Gleichung zu erhalten, benötigt man Verfahren, die diese Oszillationen gut auflösen können. Für die bisher bekannten Verfahren ist es dafür notwendig sehr kleine Zeitschrittweiten zu wählen. Patrick Krämer verfolgt bei seinem Verfahren nun die Idee, nicht jede einzelne der schnellen Oszillationen zu bestimmen. Stattdessen wird nur die Einhüllende der Welle numerisch berechnet, die sich zeitlich wesentlich langsamer verändert, und anschließend mit der hohen Frequenz der schnellen Oszillation multipliziert. Die Einhüllende lässt sich hierbei numerisch sehr effizient bestimmen, durch Anwendung eines Splitting-Verfahrens auf ein Schrödinger-Poisson System, dessen Lösung nur langsame Oszillationen aufweist und damit deutlich größere Zeitschrittweiten zulässt. Die Arbeit von Patrick Krämer war auch Teil des Cooking Math Projekts, das mit Studierenden der Hochschule für Gestaltung (HfG) unter Federführung von Jill Enders und Chris Spatschek durchgeführt wurde. Die wissenschaftliche Arbeit wurde hier in einen Film umgesetzt, der die Arbeit und Denkweise eines Mathematikers vorstellt. Literatur und Zusatzinformationen E. Faou, K. Schratz: Asymptotic preserving schemes for the Klein–Gordon equation in the non-relativistic limit regime, Numerische Mathematik 126.3: 441-469, 2014. N. Masmoudi, K. Nakanishi: Nonrelativistic limit from Maxwell-Klein-Gordon and Maxwell-Dirac to Poisson-Schrödinger, International Mathematics Research Notices 2003.13: 697-734, 2003. Schwabl, Franz. Quantenmechanik für Fortgeschrittene (qm ii), Springer-Verlag, 2008. Podcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Splitting, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 81, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/splitting
2/25/2016 • 30 minutes, 57 seconds
Splitting
Johannes Eilinghoff befasst sich in seiner Forschung mit mathematischen Fragen in der Quantenmechanik und war mit diesem Thema am Projekt Cooking Math beteiligt. Das Projekt wurde von Promovierenden im Sonderforschungsbereich Wellenphänomene (SFB) an der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) und Studierenden der Hochschule für Gestaltung (HfG) unter Federführung von Jill Enders und Chris Spatschek durchgeführt. Kurz vor unserem Gespräch - im November 2015 - waren das Projekt Cooking Math und die entstandenen Arbeiten beim 16. Science Slam Karlsruhe zu Gast, der im jubez stattfand. Die Idee des Projektes ist es, dass Designstudenten von der HfG im Rahmen ihres Studiums die Promotionsprojekte von Mathematikern als Vorlage nehmen, um deren (Teil-)Inhalte kommunizierend zu gestalten. Vorgängerprojekt und zum Teil Anleihe für die Idee war das Projekt Science Vision von Jill Enders und Chris Spatchek. Die Motivation des SFB für die Teilnahme war, die mathematische Forschungsarbeit auf ungewohntem Weg zu kommunizieren. Es waren schließlich sechs Mathematik-Doktoranden und acht Designstudierende an dem Projekt beteiligt. Der Ablauf gestaltete sich wie folgt: An zwei Terminen hielten die Mathematiker Vorträge über ihre Arbeit. Später teilten sich die Designer bestimmte mathematischen Themen (und damit einem der Promovenden) zu und bearbeiteten es in diesen Gruppen weiter. Johannes Eilinghoff hat mit Christina Vinke zusammengearbeitet. Sie hatte die Idee, zunächst einen für ein Laienpublikum verständlichen Text zu schreiben, der die Grundideen der Arbeit von Johannes beinhaltet. Johannes hatte bis dahin schon Erfahrungen mit Vorträgen für mathematisch Vorgebildete, aber hier war es eine besondere Herausforderung den Spagat zwischen der Korrektheit des Textes und seiner Verständlichkeit zu meistern. Die endgültige Version entstand in Zusammenarbeit der beiden (auch mit den beiden Betreuern) und in mehreren Iterationsstufen. Sie wurde im Soundstudio von Johannes eingesprochen und in Abschnitte zu je 2-3 Sätzen unterteilt. Als Visualisiserung des Forschungsgebietes dient außerdem eine auf den Boden gezeichnete Zickzack-Linie, die das Thema von Johannes (Splitting-Verfahren) symbolisiert. Wenn man diese Linie entlangeht, werden jeweils an den Ecken die Teilstrecken die mathematischen Ideen per Kopfhörer vom Band vorgelesen. Johannes schätzt im Rückblick auch den Einblick in die Arbeit an der Hochschule für Gestaltung. Text zum Vorsprechen beim Kunstprojekt „Cooking Math“ mit der Hochschule für Gestaltung. Station 1: Lieber Zuhörer, mein Name ist Johannes Eilinghoff. Ich bin Doktorand im Fach Mathematik an der technischen Universität in Karlsruhe. Während Sie der Linie vor Ihnen folgen, erkläre ich Ihnen, was ich erforsche und warum Sie auf einer Linie laufen. Ich bin beteiligt an einem großen Rätsel der Wissenschaft: Wir wollen Teilchen aus der Quantenmechanik besser verstehen. Dafür würden wir gerne wissen, wie sich kleinste Teilchen, wie zum Beispiel Elektronen, im Raum bewegen. Station 2: Wenn ich mit meiner Arbeit anfange, weiß ich eines so gut wie Sie: Wenn Sie jetzt auf die Uhr schauen, können Sie genau sagen, zu welcher Zeit Sie auf dem Ausgangspunkt gestanden sind. Auch ich kenne die Ausgangszeit und Anfangsposition meiner Elektronen. Was Sie noch nicht wissen, ist, mit welcher Geschwindigkeit Sie sich bewegen werden und zu welchem Zeitpunkt Sie in der Mitte oder am Ende der Linie angelangt sein werden. Genau das interessiert mich in meiner Forschung.Station 3: Leider betrachte ich nicht Sie als Forschungsgegenstand. Sie sind schön groß, wunderbar langsam und auf der ausgewiesenen Linie relativ berechenbar. Meine Elektronen sind so klein, dass es so ist als ob Sie, lieber Zuhörer, versuchen würden, eine Maus auf dem Mond zu beobachten. Sie sind flink und tanzen so unberechenbar, dass wir einen Computer und eine mathematische Gleichung brauchen, um das Unmögliche für uns möglich zu machen.Station 4: Wir wollen wissen: Zu welcher Zeit ist das Elektron an welchem Ort? Und mit welcher Geschwindigkeit bewegt es sich? Für die Lösung dieser Fragen verfolge ich folgenden Ansatz: Meine Gleichung besteht aus zwei Teilen. Ich weiß, dass jeder meiner beiden Teile mit dem Computer einfach und schnell zu lösen ist. Die Idee ist nun, die gute Lösbarkeit der beiden Teile für mein ursprüngliches Problem zu nutzen. Mein Vorgehen kann man sich vorstellen wie diese Linie auf dem Boden. Es ist einfach, einen Teil eines geraden Wegstücks entlang zu gehen. Wenn Sie das Wegstück immer weiter geradeaus laufen würden, würden Sie die Linie verlassen und nicht ans Ziel kommen.Station 5: Um ans Ziel zu kommen, macht mein Computer das Folgende: Er berechnet die Lösung des einen Teils. Diese verwendet er um den anderen Teil zu lösen. Dessen Lösung verwendet er wieder für den ersten Teil und so weiter. Bildlich können Sie sich das wie einen Gang auf dieser Linie vorstellen: Erst nach vorne, dann entlang der Linie nach rechts, dann wieder nach vorne, und wieder nach rechts. So schicke ich meinen Computer über Umwege ans Ziel. Das Schöne an den Umwegen ist, dass er sie wesentlich schneller und leichter berechnen kann.Station 6: Dieses Verfahren ist nicht exakt, denn es berechnet nicht die Lösung der ursprünglichen Gleichung, sondern nur die Lösung der beiden Teile. In meiner Forschung versuche ich nun zu beweisen, dass diese Abweichung gering ist. Damit kennen Sie die Thematik meiner Doktorarbeit.Station 7: Nun sind Sie am Ende der roten Linie und damit am Ziel angekommen. Hier möchte ich mich für Ihre Aufmerksamkeit bedanken und Ihnen zum Schluss noch verraten: Die Art von Gleichungen, die ich in meiner Forschung betrachte, nennt man Differentialgleichungen.Literatur und Zusatzinformationen J. Eilinghoff, R. Schnaubelt, K. Schratz: Fractional error estimates of splitting schemes for the nonlinear Schrödinger Equation. Wikipediaeintrag zu Splitting-Verfahren Übersichtsartikel zu SplittingverfahrenPodcasts J. Enders, C. Spatschek: Cooking Math, Gespräch mit G. Thäter und S. Ritterbusch im Modellansatz Podcast, Folge 80, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2016. http://modellansatz.de/cooking-math J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis
2/18/2016 • 15 minutes, 37 seconds
Cooking Math
Mathematik mit Kunst und Design erklären- das war ein Ziel des Kurses von Jill Enders und Chris Spatschek im Cooking Math-Projekt über das uns die beiden im Gespräch mit Gudrun Thäter und Sebastian Ritterbusch berichten. Jill und Chris haben an der Hochschule für Gestaltung (HfG) Karlsruhe studiert und mit Science Vision dort ihr Diplom abgeschlossen. Bei Science Vision ging es darum, dass Wissenschaftler und Designer für je eine 10-minütige Präsentation zusammen gebracht wurden, wo die wissenschaftlichen Inhalte ansprechend dargestellt wurden. Das Thema war Jill gut bekannt, da sie das Design der sehr erfolgreichen Science Slams ihrer Schwester Guilia Enders entworfen hatte und schließlich auch die Illustrationen im Bestseller Darm mit Charme erstellte. Im Rahmen des SFB für Wellenphänomene gab es dann die Initiative ein entsprechendes Projekt als Kurs an der HfG für Doktoranden an der Fakultät für Mathematik zu starten. Im Gegensatz zur Science Vision wurde hier die Art der Darstellung offen gelassen. Gestartet hat das Projekt mit Workshops, bei denen die Designergruppen in die mathematischen Inhalte von den Doktoranden eingeführt wurden. Im Anschluss arbeiteten die von Jill und Chris betreuten Teams aus meisst zwei Designern und einem Mathematiker in Kleingruppen selbstständig. Eine erste Vorführung der Ergebnisse gab es beim Sommerloch der HfG und die Schlusspräsentation fand anlässlich des 16. Science Slam in Karlsruhe am 5. November 2015 im Jubez Karlsruhe statt. Eine Ausstellung im Kollegiengebäude Mathematik (und eine weitere Kooperation mit dem SFB) ist für das Jahr 2016 geplant. Literatur und Zusatzinformationen Desiree Kabis und Wendy Fox: GRAFIK/NUMERIK, Formeln verwandeln sich in famose Formen, Hochschule für Gestaltung Karlsruhe (HfG), Karlsruher Institut für Technologie (KIT), Cooking Math, 2016. SFB 1173 Wellenphänomene: Analysis und Numerik, Karlsruher Institut für Technologie (KIT), 2015. J. Enders, C. Spatschek: Science Vision Conference, Hochschule für Gestaltung Karlsruhe (HfG), Kalsruher Institut für Technologie (KIT), Universität Heidelberg, 2013.
2/11/2016 • 42 minutes, 56 seconds
Quantenchaos
Diesmal traf sich Gudrun zum Gespräch mit Anke Pohl, die zur Zeit am Max-Planck-Institut für Mathematik in Bonn arbeitet. Das Thema der Unterhaltung ist Mathematisches Quantenchaos. Anke Pohl untersucht nämlich, welchen Zusammenhang die geometrischen und spektralen Eigenschaften Riemannscher Mannigfaltigkeiten haben. Historisch ist das Interesse an diesen Eigenschaften und ihren Wechselwirkungen bei physikalischen Betrachtungen entstanden, wie z.B. bei den Studien der Schwingungen einer Membran. Im Jahre 1910 vermuteten Lorentz und Sommerfeld, dass der Flächeninhalt einer Membran (die ein Beispiel für eine Riemannsche Mannigfaltigkeit ist) durch die (Ober-)töne dieser Membran (die durch die Eigenwerte eines gewissen Operators bestimmt sind, der die Schwingungen der Membran beschreibt) bestimmt sind. Bereits kurze Zeit später gelang es Hermann Weyl, diese Vermutung mathematisch zu beweisen. Im Laufe der Zeit ist die Untersuchung solcher Zusammenhänge zu einem Teilgebiet der Mathematik und Mathematischen Physik angewachsen, welches sowohl hinsichtlich Motivation als auch in Bezug auf Methoden eng mit diversen anderen Teilgebieten der Mathematik, wie z.B. der Geometrie, der Zahlentheorie und der Analysis, zusammenhängt. Und auch heute noch liefern physikalische Erkenntnisse und Intuitionen gute Heuristiken bzw. sind wegweisend für mathematische Ansätze. Aktuelle große Vermutungen mit sowohl mathematischer als auch physikalischer Motivation sind beispielsweise die Rudnick-Sarnak Vermutung über eindeutige Quantenergodizität auf gewissen kompakten Riemannschen Mannigfaltigkeiten (Gleichverteilung von Eigenfunktionen im Mittel bei wachsendem Eigenwert; für den Beweis von eindeutiger arithmetischer Quantenergodizität wurde E. Lindenstrauss 2010 eine Fieldsmedaille verliehen), die Phillips-Sarnak Vermutung über die (Nicht-)Existenz von quadrat-integrierbaren Eigenfunktionen auf gewissen nicht-arithmetischen Mannigfaltigkeiten, die Sarnaksche Vermutung über das Größenwachstum von Eigenfunktionen bei wachsendem Eigenwert, oder die Sjöstrandsche Vermutung über die asymptotische Anzahl von Resonanzen in Streifen bei hyperbolischen Flächen unendlichen Inhalts. Details und weiterführende Informationen zu diesen und anderen Vermutungen sind beispielsweise in den Übersichtsartikel in den untenstehenden Referenzen enthalten. Anke Pohls befasst sich zur Zeit mit bestimmten Flüssen, den sogenannten geodätischen Flüssen, auf einer speziellen Klasse von Riemannschen Mannigfaltigkeiten. Als erste, recht elementare, Beispiele für Mannigfaltigkeiten kann man sich zunächst Oberflächen vorstellen. Wenn man auf ihnen Größen definiert hat, die zum Messen von Abständen und Winkel dienen, werden sie Riemannsche Mannigfaltigkeit genannt. Wie bei den oben genannten Membranen sind Geodäten. Mathematisch werden die Schwingungen als Lösungen des Laplaceoperators in der zugrundeliegenden Geometrie beschrieben bzw. mit Hilfe der Eigenwerte und Eigenfunktionen des Operators. Aus der Anschauung ist klar, dass die Schwingungen von den geometrischen Eigenschaften der Fläche abhängen. Wenn z.B. die Fläche oder Membran eingerissen ist oder ein Loch hat, klingt sie anders als wenn sie geschlossen ist bzw. gut eingespannt ist. Für kompakte Flächen ist bekannt, dass es unendlich viele solcher Eigenfunktionen gibt. Je nach Grad der Offenheit (also z.B. eine Fläche mit Riss oder Loch) ist es jedoch schwierig zu sagen, wie sich die Schar der Lösungen verändert. Ein interessantes Beispiel wäre z.B. zu betrachten, dass an einer Stelle die eingespannte Fläche im Unendlichen verankert ist, aber das darunterliegende Volumen endlich ist. Vorstellen kann man sich das etwa so, dass man an dieser Stelle die Fläche samt ihren Abständen unendlich weit zieht. Man fragt sich dann, ob eine Welle auf der Fläche auch diese Singularität überlebt. Ein methodischer Ansatz, solche und andere Fragen zu studieren, ist es, Beziehungen zu anderen Objekten, vor allem rein geometrischen, zu finden. Selbergs Beweis zur Unendlichkeit der Anzahl der Eigenfunktionen auf gewissen hyperbolischen Flächen zeigt zunächst, dass die Eigenwerte der Eigenfunktionen (spektrale Objekte) durch die Längen der geschlossenen Geodäten (geometrische Objekte) bestimmt sind. Genauer, sie sind unter den Nullstellen einer generierenden Zetafunktion für das Längenspektrum der Geodäten. Ausnutzung zusätzlicher Eigenschaften der Flächen, wie z.B. Kompaktheit oder zusätzliche Symmetrien, erlaubt dann (manchmal) zu bestimmen, ob Nullstellen existieren und ob sie von Eigenwerten stammen. Anke Pohl schaut sich die Geodäten auf bestimmten hyperbolischen Flächen an, diskretisiert sie und findet ein assoziiertes diskretes dynamisches System auf dem reellen Zahlenstrahl. Für dieses diskrete System sucht sie gewisse invariante Größen, z. B. invariante Maße oder Dichten. Genauer fragt sie nach Eigenfunktionen des assoziierten Transferoperators mit gewissen Parametern (inversen Temperaturen). An dieser Stelle sieht man wieder einen Einfluss aus der Physik: Transferoperatoren entstammen dem thermodynamischen Formalismus der statistischen Mechanik. Sie zeigt dann, dass die Eigenfunktionen dieser Transferoperatoren bijektiv zu den L_2 Eigenfunktionen des Laplaceoperators der hyperbolischen Flächen sind. Da die Eigenfunktionen der Transferoperatoren alleine durch die geschlossenen Geodäten bestimmt sind und somit also geometrische Objekte der Fläche sind, stellt auch sie eine Beziehung zwischen gewissen geometrischen und gewissen spektralen Objekten dieser Flächen her. Zum Abschluss noch eine kurze Erklärung zur Bezeichnung "Quantenchaos" für dieses Themengebiet: Der Laplaceoperator ist gerade, bis auf Skalierung, der Schrödingeroperator in der Physik. Quantenmechanisch werden seine L_2 Eigenfunktionen als gebundene Zustände verstanden. Das zugehörige Objekt in der klassischen Mechanik ist gerade das Hamiltonsche Vektorfeld des geodätischen Flusses, d. h. die Bildungsvorschrift für die Geodäten oder die Bewegungsvorschrift für Kugeln auf der Fläche. Das Korrespondenzprinzip der Physik besagt nun, dass im Grenzfall (hier: Eigenwerte der Eigenfunktionen gehen gegen unendlich) die Gesetze der Quantenmechanik in die der klassischen Mechanik übergehen sollten. Hier fragt man also gerade danach, wie die spektralen und die geometrischen Eigenschaften Riemannscher Mannigfaltigen wechselwirken. Daraus ergibt sich der Bestandteil "Quanten" in "Quantenchaos". Der Bestandteil "Chaos" ist wie folgt motiviert: Bei den in diesem Gebiet studierten Flüssen verhalten sich Bahnen, die sehr nah beieinander starten, typischerweise nach recht kurzer Zeit sehr unterschiedlich. Mit anderen Worten, kleine Änderungen in den Anfangsbedingungen wirken sich typischerweise sehr stark aus, d.h., das System ist in gewisser Weise chaotisch. Frau Pohl hat Mathematik an der TU Clausthal studiert, an der Universität Paderborn promoviert und habilitiert gerade an der Universität Göttingen. Literatur und Zusatzinformationen William P. Thurston: The Geometry and Topology of Three-Manifolds, Mathematical Sciences Research Institute, 2002. A. Pohl: Symbolic dynamics for the geodesic flow on locally symmetric good orbifolds of rank one, Dissertation Uni Paderborn, 2009. A.Pohl: A dynamical approach to Maass cusp forms, arXiv preprint arXiv:1208.6178, 2012. M. Möller und A. Pohl: Period functions for Hecke triangle groups, and the Selberg zeta function as a Fredholm determinant, Ergodic Theory and Dynamical Systems 33.01: 247-283, 2013. P. Sarnak: Recent progress on the quantum unique ergodicity conjecture, Bull. Amer. Math. Soc 48: 211-228, 2012. S. Zelditch: Recent developments in mathematical quantum chaos, Current developments in mathematics 2009: 115-204, 2010.
1/28/2016 • 31 minutes, 26 seconds
Incredible Proof Machine
In den Räumen des Entropia e.V. traf sich Joachim Breitner mit Sebastian Ritterbusch, um ihm von Computerbeweisen und der Incredible Proof Machine (http://incredible.pm/) zu erzählen. Diese hatte er mit Unterstützung von Kollegen und Freunden für einen dreitägigen Workshop im Oktober 2015 am Science College Jülich mit Schülerinnen und Schülern im Start-Stipendium für motivierte und neu zugewanderte Jugendliche in Mittel- und Oberstufe unter Unterstützung der Deutsche Telekom Stiftung entworfen. Der mathematische Beweis ist grundlegender Bestandteil der Mathematik und die Technik des Beweisen wird im Mathematik- oder Informatikstudium vielfach geübt, wie es auch im Modell036 Podcast zur Analysis beschrieben wurde. Dennoch wird das wichtige Thema nur selten in der Schule angesprochen, da korrekte Beweise sehr formal und abstrakt sind. Mit einem spielerischen Zugang wird der Einstieg in die exakte Beweistheorie für Schüler und Mathematik-Interessierte nicht nur möglich, sondern ermöglicht auch neue Formen der Lehre wie den Modell051 Flipped Classroom. Beweise gehen von bestehenden Aussagen und festgelegten Axiomen aus, um neue Aussagen oder Erkenntnisse zu belegen. Von der Aussage "es regnet" kann man beispielsweise mit einem fiktiven Axiom "wenn es regnet, werden Straßen nass" schließen, dass gilt: "die Straße ist nass". Und man kann daraus mit der Technik des Widerspruch-Beweis zeigen, dass aus der Aussage "die Straße ist trocken" folgt, dass "es regnet nicht" gilt. Denn (und das ist der Beweis), würde es regnen, so wäre die Straße nass, also nicht trocken. Wann ist aber nun ein Beweis richtig? Diese Frage kann sich jeder selbst beantworten, in dem man einen vorliegenden Beweis versucht nachzuvollziehen. Eine Alternative ist die Beweisprüfung mit dem Computer, wie beispielsweise mit Isabelle. Diese Art von Software richtet sich allerdings in erster Linie an fortgeschrittene Nutzer und setzt Kentnisse in sowohl in der Logik als auch in der (funktionalen) Programmierung voraus, und so suchte Joachim nach einer einfachereren Methode, beweisen zu lernen und die Ergebnisse maschinell zu prüfen. Mit der von ihm kreierten Incredible Proof Machine werden Beweise durch Ziehen und Setzen bildlich erstellt, in der Form eines Graphen. So wird das Beweisen zu einem Puzzle-Spiel mit Erfolgserlebnis, das man nach und nach lösen kann, ohne dabei die exakte Mathematik zu verlassen. In dem Spiel gibt es viele Aufgaben, die zu lösen sind. In der Übersicht sind diese in Lektionen geordnet und zeigen jeweils durch einen breiten Strich, dem Inferenzstrich getrennt, von welchen Aussagen oben man welche Aussagen unten beweisen soll. Wählt man eine Aufgabe aus, so sieht man die gegebenen Aussagen, die oberhalb des Striches waren, als Quellen auf einem Arbeitsblatt. Die zu beweisenden Aussagen erscheinen als Senken. Von den Quellen kann man nun per Maus Verbindungen zu den Senken ziehen- entweder direkt, oder mit Hilfe zusätzlicher Blöcke, bzw. gegebener Beweisregeln, aus einer Toolbox links, die ebenfalls zur Verfügung stehen und weitere gegebene Axiome darstellen. Sind alle offenen Senken bewiesen, so leuchtet unten eine Zeile grün auf, als Bestätigung für einen geschafften Level- eine positive Bestärkung, die nicht ganz so spektakulär ist, wie bei Populous. Während man auf dem Arbeitsblatt spielt, gibt die Incredible Proof Machine unmittelbar Rückmeldung, falls eine Verbindung so keinen Sinn macht: Will man die Aussage B mit Aussage A beweisen, so wird die Linie zwischen den beiden sofort rot, und gibt dem Spielenden die Hilfestellung, wo mindestens ein Fehler steckt. Die logischen Aussagen und die gegebenen Beweisregeln verwenden eine gängige Notation zur Beschreibung logischer Verknüpfungen. Ein ∨ (sieht wie der kleine Buchstabe v aus), steht für die logische Oder-Verknüpfung und die Notation stammt vom lateinischen Wort vel. Das umgekehrte Symbol ∧ steht für die logische Und-Verknüpfung. In der ersten Lektion gibt es zwei Blöcke bzw. Beweisregeln für die Und-Verknüpfung: Einmal ein Block mit zwei Eingängen X und Y und einem Ausgang X∧Y, sowie einem Block mit einem Eingang X∧Y und zwei Ausgängen X und Y. Die Lektion 1 behandelt damit den grundlegenden Umgang mit dem System und die Konjugation. Die Lektion 2 führt die Implikation ein. Eine Implikation, oder auch Folge, beschreibt die Aussage, dass aus einer Aussage eine zweite zwingend folgt. Zur Anwendung einer Implikation gibt es in dieser Lektion eine Beweisregel, die eine Implikation anwendet. Ein weiterer Block ermöglicht eine Implikation zu erzeugen, in dem die Vorbedingung in einem Einschub angenommen bzw. angeboten wird, und man daraus das Zielereignis dann herleiten muss. Die Prüfung der Beweise in der Incredible Proof Machine erfolgt durch einen Beweisprüfer in Haskell, einer funktionalen Programmiersprache, die auch schon im Modell047 Podcast zum Tiptoi zur Sprache kam. Der Beweisprüfer wurde mit ghcjs nach JavaScript kompiliert und läuft damit komplett im Browser. Über einen Compiler von Haskell zu Redstone wie in dem Modell056 Podcast zu Minecraft ist leider noch nichts bekannt. Ein lehrreicher Zusammenhang ist hier, dass aus logischer Sicht Implikationen vollkommen korrekt sind, wenn die rechte Seite wahr ist – ohne dass ein ursächlicher Zusammenhang bestehen muss. Wenn also jemand nach Einnahme von offensichtlich unwirksamen Mitteln gesund geworden ist, so ist der logische Schluss, dass nach der Einnahme die Person gesund ist, korrekt. Doch darf man daraus keinesfalls schließen, dass die unwirksamen Mittel dafür der Grund gewesen wären. Das ist ein ähnlicher Fehlschluss wie Cum hoc ergo propter hoc – aus Korrelation folgt keine Kausalität. Die Lektion 3 führt die Disjunktion bzw. Oder-Verknüpfung mit drei neuen Beweisregeln-Blöcken ein, zwei zur Erzeugung einer Aussage mit einer Disjunktion, eine zur Zerlegung einer Disjunktion. Interessant ist dabei besonders die Zerlegung der Disjunktion, da sie auf eine Fallunterscheidung führt. Man kann auch frei weitere Aufgaben innerhalb der Incredible Proof Machine für sich selbst hinzufügen, neue Vorschläge aber auch auf Github einreichen. Die Lektion 4 behandelt die abstrakte falsche Aussage ⊥. Aus dieser kann man alles folgern, ex falso quodlibet, was dann auch in der ersten Aufgabe zu zeigen ist. Eine besondere Notation ist dabei, dass aus einer Aussage falsch folgt, wie A→⊥. Dies bedeutet einfach nur, dass A nicht gilt, also falsch ist – die Negation von A. In Lektion 5 verlassen wir dann die intuitionistische Logik, die von einer konstruktiven Mathematik ausgeht, hinein in die allgemeinere klassische Logik. Hier wird die Beweisregel vom ausgeschlossenen Dritten (tertium non datur) eingeführt. Dabei sind konstruktive Beweise, die also ohne tertium non datur auskommen, leichter automatisiert zu führen. Für die Aussage "Es gibt eine irrationale Zahl, die mit einer irrationalen Zahl potenziert rational ist" gibt es als Beispiel einen nicht-konstruktiven Beweis: Entweder ist Quadratwurzel von 2 mit sich selbst potenziert rational, oder spätestens das Ergebnis potenziert mit der Quadratwurzel von zwei ist rational, denn das ist 2. Es ist nicht klar, welche Basis die Lösung ist, sondern hier nur, dass es eine der beiden ist. Einen Zusammenhang von der konstruktiven Logik zur Programmierung liefert die Theorie der Curry-Howard-Korrespondenz – man kann Programmieren auch als eine Art Beweisen sehen, und daher sind auch ähnliche graphische Darstellungen als Flussdiagramm möglich. In Lektion 6 werden Quantoren und Prädikate eingeführt. Man kann hier beispielsweise zeigen, wann der Existenzquantor und der Allquantor vertauscht werden dürfen: Die Lektion 7 behandelt zwei weitergehende Beispiele, die auch umgangssprachlich verständlich sind: Die erste Aufgabe behandelt das Bar-Paradox: Hier gilt es zu beweisen, dass es in jeder nicht-leeren Bar immer eine Person gibt, dass wenn sie trinkt, alle in der Bar trinken. Die zweite Aussage lautet: Wenn jeder Mann einen reichen Vater hat, dann gibt es einen reichen Mann mit einem reichen Großvater. Die klassische Aussagenlogik kann aber auch über andere Kalküle definiert werden: So demonstriert die Incredible Proof Machine die Verwendung des Hilbert-Kalküls und das NAND-Kalküls. Während das Hilbert-Kalkül besonders theoretisch verwendet wird, liefert das NAND-Gatter als einfacher Logikbaustein Anwendungen bis hin zum Volladierer aus NAND-Gattern. Man kann auch jederzeit neue Beweisregeln oder Lemmas definieren, in dem man alle Bausteine logischer Diagramme mit offenen Ein- und Ausgängen mit gedrückter Shift-Taste anwählt und links zu einem neuen Baustein zusammenführt. Das folgende Bild zeigt die Definition des Beweis durch Widerspruch, und die anschließende Verwendung zu Lösung einer Aufgabe in Lektion 5: Im Gegensatz zur Incredible Proof Machine soll die Software Isabelle nicht vom Nutzer verlangen, alle Beweise selbst zu führen, sondern unterstützt dabei, Beweise auf einem hohen Abstraktionsgrad zu formulieren und zu beweisen. Ein kleines Beispiel für die Nutzung von Isabelle ist der humorvolle Versuch das allgemeine Dreieck zu definieren – und letzlich die eindeutige Existenz zu beweisen. Eine wichtige Anwendungen für Computerbeweise ist die formale Prüfung und der Beweis von Computersoftware, wie sie beispielsweise durch die Launchbury Semantik möglich wird. Sehr bekannt ist die Nutzung von rechnerunterstützten Beweisen für das Vier-Farben-Problem, das Hermann Minkowski in einer Topologie-Anfängervorlesung vergeblich versuchte nebenbei zu lösen. Der erste Beweis war noch sehr umstritten, da die Korrektheit der verwendeten Software nicht gesichert war. Erst mit einer formalen Prüfung in Coq wurde der Beweis 2005 allgemein akzeptiert. Eine andere gängige Methode ist auch die Verwendung spezialisierter Verifikationsnumerik, um die Existenz von Lösungen zu beweisen, wie dies auch im Modell019 Podcast zum computerunterstützten Beweisen behandelt wird. Auch die dichteste Kugelpackung, bzw. die Keplersche Vermutung, wurde erst 1998 mit Computerhilfe bewiesen, der zunächst ebenso umstritten war. Erst mit dem Projekt Flyspec konnte 2014 die Korrektheit des Beweises formal bewiesen werden. Im Hintergrund der Aufnahme hört man den Freifunk Karlsruhe, der parallel zu unserem Gespräch ein Treffen in den Räumen des Entropia e.V. hatte. Kinder und Jugendliche, die sich für Programmieren interessieren, sollten sich ein CoderDojo, wie das CoderDojo in Karlsruhe, genauer ansehen. Literatur und Zusatzinformationen Einführender Blog-Eintrag zur Incredible Proof Machine mit einer Sammlung von ähnlichen Projekten. J. Breitner: The Correctness of Launchbury's Natural Semantics for Lazy Evaluation, arXiv preprint arXiv:1405.3099, 2014. J. Breitner: The Safety of Call Arity, Archive of Formal Proofs, 2015. J. Breitner: Formally Proving a Compiler Transformation Safe, Haskell '15 Proceedings of the 2015 ACM SIGPLAN Symposium on Haskell, Pages 35-46, ACM New York, NY, USA, 2015. T. Nipkow, L. Paulson, M. Wenzel: Isabelle HOL- A Proof Assistant for Higher-Order Logic, Springer-Verlag, 2015. Podcasts T. Schwentick: Logik, Gespräch mit N. Ludewig im Omega Tau Podcast, Folge 101, Omega Tau, 2012. http://omegataupodcast.net/2012/08/101-logik/ D. Rütters: Computerunterstütztes Beweisen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 19, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/beweisen J. Eilinghoff: Analysis, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 36, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. http://modellansatz.de/analysis J. Breitner: Papierrechner, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 47, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/papierrechner C. Spannagel: Flipped Classroom, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 51, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/flipped-classroom F. Gilges: Spielcomputer, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 56, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. http://modellansatz.de/spielcomputer
1/21/2016 • 2 hours, 57 minutes, 7 seconds
Automorphe Formen
Hans-Georg Rück ist Professor an der Universität in Kassel in der Arbeitsgruppe Algorithmische Algebra und diskrete Mathematik. Im Rahmen des diesjährigen Weihnachtsworkshops der Arbeitsgruppe Zahlentheorie und Algebraische Geometrie an unserer Fakultät sprach er zu Drinfeld automorphen Formen. In unserem Gespräch gehen wir der Frage nach, was das ist und zu welchen strukturellen Einsichten diese Werkzeuge dienen können. Automorphe Form ist ein sehr alter Begriff. Ausgangspunkt sind holomorphe Funktionen z.B. auf der oberen komplexen Halbebene. Statt Funktionen in einer komplexen Variablen werden jedoch Gruppen angewendet. Die automorphen Formen zeichnen sich dadurch aus, dass sie Invarianzeigenschaften unter bestimmten Gruppen haben. Ein einfaches Beispiel für so eine Invarianzeigenschaft ist, wenn eine Funktion z.B. den gleichen Wert für die komplexen Zahlenwerte z und z+1 hat - also periodisch ist. Ein Beispiel für eine komplexere Operation ist es, die Zahl z nicht in eine Funktion einzusetzen, sondern eine Matrix auf sie anzuwenden. Historisch entstanden sind solche Fragestellungen z.B. dadurch, dass man den Umfang von Ellipsen ausrechnen wollte. Gelöst wurde diese Frage mit Hilfe der Weistraßschen ℘-Funktion. Diese erfüllt eine algebraische Gleichung - die sogenannte elliptische Funktion. Hiervon werden ganze Klassen von Funktionen abgeleitet. Insbesondere auch die automorphen Funktionen. Interessant daran ist, dass man gut mit automorphen Funktionen rechnen kann. Die automorphen Formen haben die angenehme Eigenschaft, dass Reihendarstellungen häufig nach einer endlichen Zahl von Gliedern abbrechen und auch Integrale sich durch solche endliche Reihen darstellen lassen. Außerdem hängen sie mit elliptischen Kurven zusammen, die letztlich ein wesentlicher Zugang waren, um den Satz von Fermat zu beweisen. Im Kontext der hier betrachteten Drinfeld automorphen Formen werden statt ganzer Zahlen als Argumente Funktionenkörper als Werte eingesetzt. Ein einfacher Funktionenkörper ist die Menge der Polynome in x. Er lässt sich (so wie der Körper der ganzen Zahlen auf rationale Zahlen erweitert wird) auf rationale Funktionen erweitern. Das Rechnen mit meromorphen Funktionen und Potenzreihen kann man auf Polynome übertragen. Geometrische Interpretationen sind recht einfach. Für die Gruppe GL(2) ist das Grundgebilde eine unterteilte Gerade also ein endlicher Graph. Da es in der Regel Funktionen auf endlichen Gebilden sind, kann man es gut mit Hilfe eines Computer ausrechnen. Die nächsten Schritte in der Untersuchung der Drinfeld automorphen Formen müssen nun sein: Die L-Reihe bestimmen und Werte an kritischen Stellen bestimmen. Hier besteht ein einger Zusammenhang zur Riemannschen zeta-Funktion. Literatur und Zusatzinformationen J-P. Serre: A course in Arithmetic, Graduate Texts in Mathematics, Springer-Verlag, 1973. Insbesondere ist das "Chapter VII, Modular Forms" wichtig. M. Waldschmidt (ed.): From Number Theory to Physics, 2nd ed, Springer-Verlag, 2010. Wichtig ist besonders Kapitel 4 zu Modular Forms. D. Zagier: Modular Forms of One Variable, Sommerkurs, 1991. E.-U. Gekeler et.al: Proceedings of a Workshop on Drinfeld Modules, Modular Schemes and Applications, World Scientific, 1997. J. Bruinier e.a. The 1-2-3 of Modular Forms: Lectures at a Summer School in Nordfjordeid, Norway, (ed. K. Ranestad) Universitext, Springer-Verlag, Berlin-Heidelberg-New York, 2008. F. Januszweski: L-Funktionen, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 53, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015.
1/14/2016 • 21 minutes, 30 seconds
Qwirkle Gruppe
In vielen Spielen steckt Mathematik, seien es Minecraft, Wasserraketen oder Tiptoi. Lisa Mirlina und Felix Dehnen haben sich Qwirkle (ein Spiel der Schmidt Spiele von Susan McKinley Ross) einmal ganz genau angesehen. Die beiden konnten als Teilnehmer des Hector-Seminar an einem Kooperationsprojekt mit der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) teilnehmen. Hier betreute sie Prof. Dr. Frank Herrlich in dem Projekt auf der Suche nach der perfekten Qwirkle-Lösung- wofür die beiden ihm ganz herzlich danken. Das Legespiel war 2011 Spiel des Jahres und besteht aus 108 Spielsteinen aus sechs verschiedenen Farben und sechs verschiedenen Formen- jede Kombination kommt dabei dreimal vor. Jeder Spielteilnehmer versucht aus seinen eigenen sechs nachzuziehenden Spielsteinen gleiche Formen oder gleiche Farben auf dem Tisch in Reihen zusammenzulegen. Wie bei Scrabble gibt es für jedes Anlegen Punkte- es müssen aber alle entstehende Reihen korrekt sein- von Farbe oder Form, wie bei Mau-Mau oder Domino. Das Spielziel ist eine möglichst hohe Anzahl von Punkten zu erreichen. Den mathematischen Hintergrund zum Spiel fanden die beiden in der Topologie: Auf einem Tisch kann man höchstens 36 Steine perfekt anordnen- auf einer anderen topologischen Struktur eventuell mehr. Mit Hilfe von Verklebungen kann man zu Flächen wie beispielsweise auf einem Torus gelangen- wenn man die jeweils die gegenüberliegenden Seiten miteinander verklebt: Auf einem Torus haben wirklich alle Steine vier Nachbarn- und nicht nur die Steine im Inneren. Die Frage ist nun, ob es möglich ist, eine Fläche zu finden, wo jeder der 108 Steine in genau zwei perfekten Qwirkle-Reihen- also jeder Form oder Farbe- liegen kann. Neben einem Torus kann man durch Verkleben aus einem Quadrat oder Rechteck auch die Sphäre, das Möbiusband, die Projektive Ebene oder die Kleinsche Flasche erzeugen. Dabei sind das Möbiusband, die projektive Ebene und die Kleinsche Flasche nicht mehr orientierbar, da man keinen Normalenvektor angeben kann. Die projektive Fläche hat in ihrer Darstellung durch homogene Koordinaten eine wichtige Anwendung in der Computergrafik, da Verschiebungen auch als lineare Abbildungen umgesetzt werden können und die gesamte Berechnung deutlich erleichtert. Auch frühere Folgen zu Teichmüllerkurven (Modell042) und wilden Singularitäten (Modell060) haben im Modellansatz Podcast Topologie und Verklebungen behandelt. Die Topologie ist dabei überhaupt nicht so theoretisch, wie sie zunächst erscheint- denn da wir nicht auf einer Ebene oder flachen Erde leben, können wir einmal um die Erde herumgehen, und nach langem Weg wieder an dem gleichen Ort wieder ankommen. Wir können auch andere Winkelsummen von Dreiecken bestimmen. Diese Experimente können wir beim Universum leider nicht leicht durchführen, und so ist die Forschung nach der Topologie des Universums sehr aktuell. In der Topologie können Flächen bzw. zwei topologische Räume als äquivalent angesehen werden, wenn sie durch eine Homöomorphie, also durch eine stetige und stetig umkehrbare Abbildung in einander überführt werden können. So ist eine Tasse (mit einem Henkel) zu einem Torus homöomorph- nicht jedoch zu einem Becher ohne Henkel. Dies führt auf das interessante Gebiet der topologischen Klassifikation der Flächen, denn man kann durch eine genügend feine Unterteilung der Fläche in beispielsweise Dreiecke, einer Triangulierung, zusammen mit einigen Regeln die Art der Fläche bestimmen. Dies führt auf den verallgemeinerten Satz von Euler für orientierbare Flächen, wo die Zahl der Ecken, die Zahl der Flächen, die Zahl der Kanten und das Geschlecht bezeichnet: Das Drei Häuser-Problem ist ein Knobelrätsel zu diesem Satz, da das Problem auf einer Ebene oder eine Sphäre nicht lösbar ist, jedoch auf dem Torus eine Lösung besitzt. Für das Qwirkle-Spiel liefert der Dreifach-Torus (oder eine Brezel) eine Lösung für 8 Steine, wo jeweils zwei Steine doppelt sind und daher auf einem Tisch nicht so anzuordnen wären: Für 18 Steine haben sie eine unsymmetrische Lösung gefunden, die sich nicht so leicht auf mehr Steine erweitern ließ: Mit der Treppenstruktur wie bei 8 Steinen mit einer 9er Struktur kann man aber eine Lösung aus 108 Steinen konstruieren: Nach dem Satz von Euler ist diese Lösung auf einer Fläche, die einem Fünf-Torus entspricht- oder einer Brezel mit zwei Löchern zu viel. Dies ist aber nicht die einzige Lösung für 108 Steine- mit Gruppentheorie kann man nach weiteren Lösungen suchen: Denn so, wie die Steine sich nach Verklebung in einer Richtung wiederholen, so können auch Gruppen genau diese Wiederholungen darstellen. Ein sehr einfaches Beispiel ist die zyklische Gruppe aus drei Elementen 0, 1, 2, die man mit der Addition verknüpft, und bei Ergebnissen über 2 wieder drei abzieht, wie man in dieser Verknüpfungstafel ablesen kann: +012001211202201Auf drei Elementen kann man aber auch die Symmetrische oder Permutations-Gruppe definieren: In dieser sind alle möglichen sechs Vertauschungen bzw. Permutationen von den drei Elementen enthalten. Ein anderer Ansatz ist es, die drei Elemente als Ecken eines gleichseitigen Dreiecks zu sehen und alle Rotationen oder Spiegelungen zur Dieder- oder Symmetriegruppe definieren. Im speziellen Fall von drei Elementen stimmen die beiden Gruppen mit je sechs Abbildungen überein, d.h. : Durch das direkte Produkt von drei Symmetriegruppen erhält man eine Gruppe mit 216 Elementen, unter Festhalten des Signums (bzw. Vorzeichen), kann man durch Faktorisierung eine Untergruppe mit 108 Elementen bestimmen- die Qwirkle-Gruppe. Aus dieser Gruppe kann man nun wieder eine Fläche erzeugen, die das perfekte Qwirkle-Spiel mit 108 Steinen mit vollkommen symmetrischen Aufbau ermöglicht: Die Fläche dieser Lösung hat das Geschlecht 37, ist also äquivalent zu einer Tasse mit 37 Henkeln. Mit diesem Projekt starteten Lisa Mirlina und Felix Dehnen bei Jugend forscht- zunächst beim Regionalentscheid, dann beim Landesentscheid und schließlich dem Bundeswettbewerb. Sie gewannen den Preis der Deutschen Mathematiker-Vereinigung (DMV) für besonders kreativen Einsatz der Mathematik. Und dann ging es als Delegation nach Japan. Literatur und Zusatzinformationen L. Mirlina, F. Dehnen: Qwirkle, Abschlussbericht im Hector-Seminar, 2014. J. Stillwell: Classical topology and combinatorial group theory, Vol. 72. Springer Science & Business Media, 2012. W. Lück: Topologie, Gespräch mit G. Thäter im Modellansatz Podcast, Folge 40, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. <http://modellansatz.de/topologie>
12/24/2015 • 1 hour, 36 minutes, 35 seconds
Transparent Boundaries
If we are interested in the propagation of waves around a small region of interest, like e.g. an obstacle inside a very big ("unbounded") domain, one way to bring such problems to the computer and solve them numerically is to cut that unbounded domain to a bounded domain. But to have a well-posed problem we have to prescribe boundary conditions on the so-called artificial boundary, which are not inherent in our original problem. This is a classical problem which is not only connected to wave phenomena. Sonia Fliss is interested in so-called transparent boundary conditions. These are the boundary conditions on the artificial boundaries with just the right properties. There are several classical methods like perfectly matched layers (PML) around the region of interest. They are built to absorb incoming waves (complex stretching of space variable). But unfortunately this does not work for non-homogeneous media. Traditionally, also boundary integral equations were used to construct transparent boundary conditions. But in general, this is not possible for anisotropic media (or heterogenous media, e.g. having periodic properties). The main idea in the work of Sonia Fliss is quite simple: She surrounds the region of interest with half spaces (three or more). Then, the solutions in each of these half spaces are determined by Fourier transform (or Floquet waves for periodic media, respectively). The difficulty is that in the overlap of the different half spaces the representations of the solutions have to coincide. Sonia Fliss proposes a method which ensures that this is true (eventually under certain compatibility conditions). The chosen number of half spaces does not change the method very much. The idea is charmingly simple, but the proof that these solutions exist and have the right properties is more involved. She is still working on making the proofs more easy to understand and apply. It is a fun fact, that complex media were the starting point for the idea, and only afterwards it became clear that it also works perfectly well for homogeneous (i.e. much less complex) media. One might consider this to be very theoretical result, but they lead to numerical simulations which match our expectations and are quite impressive and impossible without knowing the right transparent boundary conditions. Sonia Fliss is still very fascinated by the many open theoretical questions. At the moment she is working at Ecole Nationale Supérieure des Techniques avancées (ENSTA) near Paris as Maitre de conférence. Literature and additional material C. Besse, J. Coatleven, S. Fliss, I. Lacroix-Violet, K. Ramdani: Transparent boundary conditions for locally perturbed infinite hexagonal periodic media, arXiv preprint arXiv:1205.5345, 2012. S. Fliss, P. Joly: Exact boundary conditions for time-harmonic wave propagation in locally perturbed periodic media, Applied Numerical Mathematics 59.9: 2155-2178, 2009. L. Bourgeois, S. Fliss: On the identification of defects in a periodic waveguide from far field data, Inverse Problems 30.9: 095004, 2014.
12/17/2015 • 26 minutes, 17 seconds
Population Models
How do populations evolve? This question inspired Alberto Saldaña to his PhD thesis on Partial symmetries of solutions to nonlinear elliptic and parabolic problems in bounded radial domains. He considered an extended Lotka-Volterra models which is describing the dynamics of two species such as wolves in a bounded radial domain: For each species, the model contains the diffusion of a individual beings, the birth rate , the saturation rate or concentration , and the aggressiveness rate . Starting from an initial condition, a distribution of and in the regarded domain, above equations with additional constraints for well-posedness will describe the future outcome. In the long run, this could either be co-existence, or extinction of one or both species. In case of co-existence, the question is how they will separate on the assumed radial bounded domain. For this, he adapted a moving plane method. On a bounded domain, the given boundary conditions are an important aspect for the mathematical model: In this setup, a homogeneous Neumann boundary condition can represent a fence, which no-one, or no wolve, can cross, wereas a homogeneous Dirichlet boundary condition assumes a lethal boundary, such as an electric fence or cliff, which sets the density of living, or surviving, individuals touching the boundary to zero. The initial conditions, that is the distribution of the wolf species, were quite general but assumed to be nearly reflectional symmetric. The analytical treatment of the system was less tedious in the case of Neumann boundary conditions due to reflection symmetry at the boundary, similar to the method of image charges in electrostatics. The case of Dirichlet boundary conditions needed more analytical results, such as the Serrin's boundary point lemma. It turned out, that asymtotically in both cases the two species will separate into two symmetric functions. Here, Saldaña introduced a new aspect to this problem: He let the birth rate, saturation rate and agressiveness rate vary in time. This time-dependence modelled seasons, such as wolves behaviour depends on food availability. The Lotka-Volterra model can also be adapted to a predator-prey setting or a cooperative setting, where the two species live symbiotically. In the latter case, there also is an asymptotical solution, in which the two species do not separate- they stay together. Alberto Saldaña startet his academic career in Mexico where he found his love for mathematical analysis. He then did his Ph.D. in Frankfurt, and now he is a Post-Doc in the Mathematical Department at the University of Brussels. Literature and additional material A. Saldaña, T. Weth: On the asymptotic shape of solutions to Neumann problems for non-cooperative parabolic systems, Journal of Dynamics and Differential Equations,Volume 27, Issue 2, pp 307-332, 2015. A. Saldaña: Qualitative properties of coexistence and semi-trivial limit profiles of nonautonomous nonlinear parabolic Dirichlet systems, Nonlinear Analysis: Theory, Methods and Applications, 130:31 46, 2016. A. Saldaña: Partial symmetries of solutions to nonlinear elliptic and parabolic problems in bounded radial domains, PhD thesis, Johann Wolfgang Goethe-Universität Frankfurt am Main, Germany, 2014. A. Saldaña, T. Weth: Asymptotic axial symmetry of solutions of parabolic equations in bounded radial domains, Journal of Evolution Equations 12.3: 697-712, 2012.
12/10/2015 • 22 minutes, 49 seconds
Nullnummer
Die Nullnummer eines Podcasts behandelt die Hintergründe, Themen und Motivation für die Reihe. Dazu ist Nele Heise zu Besuch nach Karlsruhe gekommen, und spricht mit Gudrun Thäter und Sebastian Ritterbusch über Podcasts, Wissenschaftskommunkation und den Modellansatz. Nele Heise, M.A., (@neleheise) ist freie Medienforscherin, Mitglied der Graduate School am Research Center Media and Communication Hamburg und beschäftigt sich in ihrem Promotionsprojekt mit den technischen und sozialen Rahmenbedingungen von Podcasting. Von 2005 bis 2011 studierte sie Kommunikationswissenschaft an der Universität Erfurt und war anschließend bis Sommer 2014 wissenschaftliche Mitarbeiterin in dem DFG-Projekt 'Die (Wieder-)Entdeckung des Publikums' am renommierten Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Als freie Medienforscherin setzt sie sich in Vorträgen, Gastartikeln, Workshops oder Paneldiskussionen mit Prozessen und Folgen des digitalen Wandels, ethischen Aspekten der Onlinekommunikation oder medialer Teilhabe auseinander. Nele kommt ursprünglich aus der freien Radio-Szene und hat 2003/2004 die Thüringen-Redaktion der Jugendzeitschrift SPIESSER aufgebaut. Im Haus der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT) befindet sich auch das Nationale Institut für Wissenschaftskommunikation (NaWik) und Nele Heise wurde von Prof. Dr. Annette Lessmöllmann eingeladen, im assozierten Master-Studiengang Wissenschaft - Medien - Kommunikation vorzutragen: In Wissen to Go (Folien) stellte sie die Frage: "Was hat Wissenschaftskommunikation mit Podcasts zu tun?". Sie kam neben der Einführung in Podcasts und aktuellen Themen der Wissenschaftskommunikation zu Formaten, die von Wissenschaffenden selbst getragen werden. Besondere Beispiele waren hier Methodisch inkorrekt, der KonScience Podcast und natürlich auch der BredowCast, der mit von ihr initiiert wurde. Diese Darstellung der Wissenschaft, fernab von Hierarchien, sieht sie als ein Produkt des Digitalen Wandels, das zeigt, welche neuen Rollen und Modelle sich in der Wissenschaftskommunikation etablieren könnten. Der Podcast SciComm – wissen, was läuft von den Studierenden des Studiengangs befasst sich entsprechend offensiv mit den aktuellen Themen der Wissenschaftskommunikation und dem Bild der Wissenschaft in den Medien: In SciComm Folge 2 im Gespräch mit Dr. Sven Stollfuß geht es um die Nerds in Big Bang Theory oder CSI und das daraus resultierende Bild der Wissenschaft. Für den Modellansatz Podcast war der von der DLR und ESA ins Leben gerufene Raumzeit Podcast ein prägendes Element, in dem die Gespräche komplexe Themen nicht scheuen oder simplifizieren, sondern sie in der erforderlichen Breite spannend erklären und so die Hörerschaft ernst nehmen. Dieser Ansatz scheint sich auch daran zu bestätigen, dass das vergleichsweise komplizierte Thema der L-Funktionen in der Zahlentheorie eine der gefragtesten Folgen des Modellansatz Podcasts ist. Dies steht im erstaunlichen Widerspruch zum Selbstverständnis der Wissenschaft in abstrakteren Themenbereichen, bei denen oft von einem Desinteresse der Öffentlichkeit ausgegangen wird. Viele Gesprächspartnerinnen im Podcast sind am Ende positiv über die Art der Themenbehandlung überrascht, und das liegt sicher auch an den Eigenheiten des besonderen Mediums. Der Podcasts ist laut Tim Pritlove das "mit Abstand persönlichste Medium überhaupt". Der Raum für Fragen, für die Themen selbst statt Klischees, erleichtert die Kommunikation für die Wissenschaffenden ungemein. So werden auch Ideen, Fehlschläge und überraschende Ansätze der Forschenden zu einem faszinierenden und lehrreichen Kommunikationsthema im Gegensatz zu Publikationen oder vereinfachenden Zusammenfassungen, die sich oft nur auf Resultate reduzieren. Gleichzeitig wird den Forschenden auf eine sehr menschliche Art die Möglichkeit geboten, über ihre mathematischen Ideen, die Faszination und Ergebnisse ihrer Arbeit zu sprechen. Dies trifft natürlich auch auf andere Forschungsgebiete zu, wie beispielsweise Daniel Meßner in den Stimmen der Kulturwissenschaft demonstriert. Auch beim BredowCast oder beim Forschergeist werden die Forschenden im Gespräch mit ihren vielfältigen Facetten und Interessen in natürlicher Weise zum Medium dargestellt. Daher waren die Forscherinnen, Absolventen und Lehrenden für den Modellansatz schon von Anfang an ein Schwerpunkt für die Auswahl der Gespräche. So fanden Themen der aktuellen Wissenschaft und faszinierende Abschlussarbeiten ihren Weg in den Podcast. Aber auch in der Lehre kann der Podcast die traditionellen Angebote unterstützen und häufige Fragen aus Sprechstunden im Dialog sehr zielgerichtet adressieren. Hier ist die Interaktion mit dem Podcast ein spannendes Thema, und Frameworks wie Podlove bieten eine umfassende Lösung, wie Publikation und Feedback für Podcasts gelöst werden kann. Ein Podcast aus der Praxis der Forschung und Lehre bietet auch die Chance, einen ausgewogeneren Einblick in die Realität der Wissenschaft zu liefern: So sprechen im Modellansatz neben Professorinnen auch junge Absolventinnen und Schüler. Dies bietet einmal einen größeren Grad an Identifikation und dies passt auch gerade zu den Ergebnissen der ARD/ZDF-Onlinestudie 2015, die eine höhere Podcastnutzung gerade bei jüngeren Personen aufzeigt. Ebenso zeigt der Podcast den selbstverständlichen Querschnitt von Frauen wie Männern in der Wissenschaft. Auch in der allgemeinen Podcastlandschaft werden die Frauenstimmen immer zahlreicher, wie die von Nele Heise initiierte Liste zeigt, die von der Hörsuppe in ein Flattrboard gebracht wurde: Frauenstimmen im Netz - die Podcasterinnen-Liste. Leider haben Podcasts in der deutschsprachigen Wissenschaftskommunikation noch keinen hohen Stellenwert, obwohl das Medium einzigartige Vorteile besitzt, wie Henning Krause im Beitrag Wissenschaft auf die Ohren: Audiopodcasts beschreibt. Hier können kuratierte Angebote wie die Wissenschaftspodcasts-Seite (@wisspod) den Einstieg erleichtern und die Verbreitung der Angebote im Wissenschaftsraum fördern. Das soll natürlich auch alle interessierten in der Wissenschaft motivieren, selbst das Mikro in die Hand zu nehmen und über ihre Berufung zu sprechen - denn wer kann authentischer die eigene Motivation, Ideen und Ergebnisse vermitteln als man selbst? Für den Start gibt es viele Anlaufpunkte, wie das Sendegate, das jährliche Wissenschaftspodcaster Treffen #GanzOhr, die Podlove Podcaster Workshops oder Podcast MeetUps in der Nähe. Die Community bietet viel Unterstützung, und so war Toby Baier beispielsweise eine große Hilfe beim Start des BredowCast. Eine Besonderheit von Podcasts ist auch die Verknüpfung des gesprochenen Worts mit den Sendungsnotizen oder Shownotes. Gerade in der Wissenschaft haben Referenzen einen hohen Stellenwert: Es geht hier um Sichtbarkeit, die Herstellung des Kontexts, die Vernetzung mit weiteren Quellen und die Belege für Aussagen. Dies kann und sollte daher in wissenschaftlichen Podcasts eine besondere Aufmerksamkeit erhalten: Neben der traditionellen Referenzierung können sprachliche Ungenauigkeiten detailliert oder korrigiert werden, und die im erwünscht flüssigen Gespräch schwierigen Querverweise nachträglich im Text erfolgen. Letztlich bieten die Texte auf dem Stand der Technik von Suchmaschinen noch eine besonders gute Auffindbarkeit der sonst schwer durchsuchbaren Audiodateien. Eine weitere interessante Ergänzung ist die Erstellung von EBooks, wie Helfrich et al. in Visualization of lithosphere subduction: application to the mantle evolution beneath the Japanese Islands demonstrieren. Hier können schriftliche Medien mit Videos und Tonmedien interaktiv zum erlebenden Lernen zusammengeführt werden. Gerade im Bereich der Lehre können Podcasts den Studierenden und den Lehrenden große Vorteile bringen: Neben dem Ansatz im Flipped Classroom das passive Lernen nach Hause und das aktive Lernen in die Vorlesung zu bringen, haben sich schon die Zusammenfassungen von ganzen Vorlesungen sehr bewährt. Im Modellansatz gibt es dazu die Beispiele der Vorlesungen zur Analysis oder die digitalen Währungen. Dabei sind die Folgen aber keine traditionellen Vorlesungsmitschnitte, sondern spannende Gespräche mit Dozent oder Übungsleiter, wo durch die Unterhaltung die Motivation deutlich steigt. Dabei müssen natürlich nicht alle Darstellungen so spektakulär sein wie das Intro der Folge 62 von Methodisch Inkorrekt (mit dem Reinhard Remfort nichts zu tun hatte). Für den Spracherwerb und auch zur Behandlung von Trauma- und Suchtpatientinnen haben sich Audiopodcasts als begleitendes Medium bewährt und es gibt in der Artikelliste von Nele Heise zum Thema Podcasts wissenschaftliche Studien zu diesem Thema. Interessant sind auch Podcast-Konzepte mit einem vordefiniertem Umfang, wie beispielsweise dem Grounded Theory Podcast (Grounded Theory auf Soundcloud). Die Gespräche werden von den Stimmen getragen - seien es so erfahrene Podcasterinnen wie Annik Rubens oder der Wissenschaftler, der zuvor nie in ein Mikro gesprochen hat - sie alle stellen die Vielfalt der Mitwirkenden dar. Gerade im Audiopodcast werden unterschiedliche Stimmen sehr offen aufgenommen und bieten einen viel tieferen persönlichen Bezug zwischen Hörerin und Sprecherin. Der Blick in die USA zeigt, welchen Stellenwert Podcasts in der Gesellschaft haben können, der sich laut Marco Arment auch noch deutlich erweitern wird. Auch die Entwicklung der Wissenschaftskommunikation ist laut dem SciComm Gespräch mit Prof. Scheufele deutlich weiter. Was sich von diesen Entwicklungen in den deutschsprachigen Raum überträgt, wird sicher auch auf die Wissenschaftspodcasts einen großen Einfluss haben. Literatur und Zusatzinformationen Nele Heise: Podcast Forschung, 5. Podlove Podcaster Workshop, Berlin, Mai 2015. Nele Heise: Forschungserkenntnisse zur Hörerschaft von Podcasts, 6. Podlove Podcaster Workshop, Berlin, November 2015. Vorträge von Nele Heise auf Slideshare Nele Heise: Studien und Artikel zum Thema Podcasts / Podcasting Forum Wissenschaftskommunikation 2015: Der kommunizierende Wissenschaftler- das (un)bekannte Wesen
12/3/2015 • 1 hour, 26 minutes, 52 seconds
Sonnenkollektoren
Durch Unterstützung von dem Fraunhofer Institut für Solare Energiesysteme ISE konnte sich Edwin Hernandez mit der Optimierung von Sonnenkollektoren befassen. Speziell ging es dabei um Thermische Sonnenkollektoren, bei denen das Sonnenlicht einen flüssigen Wärmeträger erhitzt. Diese Träger können Wasser, Salzlösungen oder Öle mit hohen Wärmekapazitäten sein. Gängige Solarkollektoren verwenden inkompressible Fluide, wie Öle oder Wasser unter hohem Druck, die ihre Phase während der Erwärmung und Abkühlung nicht ändern. Die spannende Frage ist nun, wie sich die Verwendung von kompressiblen Fluiden auswirkt, beispielsweise bei Fluiden, die- wie Wasser- bei Erhitzung gasförming werden. Dies hat Edwin Hernandez simuliert. Die Grundlage für die Simulation ist das lang erprobte PFM (plug flow model) im ColSim - Collector Simulation Environment des ISE für inkompressible Fluide, wo vorausgesetzt wird, dass immer die gleiche Masse ein Rohrstück betritt, wie sie das Stück am anderen Ende verlässt. Diese Massenbilanz für ein Rohrstück wird bei kompressiblen Fluiden verletzt, da die gasförmige Phase ein deutlich höheren Platzbedarf hat. Im Modell wird das Rohr Im Kollektor sinnvollerweise eindimensional angesetzt, da die Länge des Rohrs die Dicke bei weitem überschreitet. Darauf werden die Bilanzgleichungen formuliert. Die enstehenden Gleichungen werden diskretisiert und approximativ gelöst. Die Umsetzung eines erweiterten PFM-Verfahrens (EPFM) und der SIMPLER-Methode erfolgte als neues Modul im ColSim - Collector Simulation Environment Framework. Die neue Methode berücksichtigt ein viel umfangreicheres physikalisches Modell, ist im Gegensatz zu den direkten Lösern des PFM-Verfahrens nun aber auch nur iterativ und damit hier mit mehr Rechenaufwand lösbar. Literatur und Zusatzinformationen H. Walter: Modellbildung und numerische Simulation von Naturumlaufdampferzeugern, VDI-Verlag, 2001. J. F. Feldhoff, T. Hirsch, R. Pitz-Paal, L. Valenzula: Transient models and characteristics of once-through line focus systems, SolarPaces, Beijing, China, 2014. ColSim - Collector Simulation Environment
11/26/2015 • 24 minutes, 13 seconds
Brasilien
Ein Auslandsstudium ist eine ganz besondere Ergänzung zum Studium: Benedikt Kottler und Hakan Demirel konnten im Rahmen einer Direktkooperation ihr Studium und ihre Forschungen für ein Semester in Brasilien durchführen. Mit Gudrun Thäter sprechen die beiden über ihre dortigen mathematischen Arbeitsgebiete und ihren Aufenthalt. Benedikt Kottler hat sich in Vorbereitung seiner Master-Arbeit mit der Molekulardynamik befasst. Er möchte die Interaktion von molekularen Partikeln im Rahmen der Kontinuumsmechanik modellieren und mit der Software OpenLB durchführen. Diese Prozesse treten schon in der Betrachtung des Wassermoleküls auf. Eine naheliegende Anwendung ist daher die Simulation von Filtrationsprozessen, wo kleine Schmutzpartikel aus einem Fluid herausgefiltert werden sollen. Das Forschungsthema von Hakan Demirel dreht sich um Feinstaub im Stadtgebiet, genauer um die drei Themen Windsimulation, Partikelsimulation und Feinstaub-Emission durch den Autoverkehr. Dazu konnte er in Brasilien auf eine Verkehrssimulation zurückgreifen und ein stochastisches Modell für Windrichtungen und -intensitäten aufstellen. Dabei hat sich ergeben, dass sich die Stadtgeometrie in der Form von Gebäuden und Straßenzügen einen großen Einfluss auf die sinnvolle Diskretisierung der Windmodelle haben und entsprechend berücksichtigt werden müssen. Die Idee für das Auslandssemester in Brasilien entstand nach einem Vortrag über die Simulationssoftware OpenLB, zu der bestehende Kooperationen zwischen Forschungseinrichtungen in Brasilien und dem KIT bestehen. Die Finanzierung wurde dabei insbesondere durch das Baden-Württemberg-Programm nach Bewerbungsphase ermöglicht. Natürlich gehört auch der Besuch von Vorlesungen zum Auslandsstudium, die teilweise für die beiden in englisch gehalten wurden- und sich teilweise von Vorlesungen in Karlsruhe unterschieden. Die positiven Kontakte zu den Studierenden und Gastfamilien in Brasilien gehören dabei genauso zum Austausch, wie die Erfahrungen unterschiedlicher bürokratischer Systeme. Literatur und Zusatzinformationen OpenLB - Open source lattice boltzmann code International Student Office am KIT I. Waltschläger: Windsimulation im Stadtgebiet, Gespräch mit S. Ritterbusch im Modellansatz Podcast, Folge 14, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. <http://modellansatz.de/windsimulation>
11/19/2015 • 32 minutes, 40 seconds
RSA-Faktorisierung
Im Rahmen eines Bogy-Praktikums hat Finn Schmidt sich mit dem RSA-Verfahren befasst, einem Vertreter der Asymmetrischen Verschlüsselungsverfahren und eine elementare Basis für private Kommunikation- besonders angesichts der globalen Überwachung, die 2013 nochmal besonders in die öffentliche Aufmerksamkeit rückte. Elementare Rechte, wie das im Grundgesetz gesicherte Recht auf das Postgeheimnis bei einem verschlossenen Briefumschlag, kann man in elektronischen Medien nur durch Kryptoverfahren erreichen. Aus mathematischer Sicht sind Primzahlen grundlegende Bausteine, aus denen RSA-Schlüsselpaare, bestehend aus einem privaten und einem öffentlichen Schlüssel, bestimmt werden. Dazu werden zwei große Primzahlen multipliziert- und das Produkt im öffentlichen Schlüssel preisgegeben. Dies schützt die einzelnen Faktoren, da die Rückrechnung in Form einer Faktorisierung viel aufwendiger als die Multiplikation ist. Zur Betrachtung der Sicherheit des Verfahrens, muss man genau diese Verfahren untersuchen. Ein effizientes Faktorisierungsverfahren ist das Quadratische Sieb, das auf der dritten binomischen Formel basiert. Dazu sucht man zwei Quadratzahlen, deren Differenz die zu faktorisierende Zahl ergibt, da man so eine Faktorisierung erhält. Ein noch besseres Verfahren verspricht der Shor-Algorithmus, jedoch benötigt dieser zur effizienten Ausführung einen Quantencomputer. Das RSA-Verfahren ist bei Betrachtung von Faktorisierungsmethoden auf gängigen Digitalrechnern in dem Sinne sicher, dass die Faktorisierung um Größenordnungen aufwendiger als die Schlüsselerzeugung ist. So kann jedes gewünschte Sicherheitsniveau erreicht werden. Dies ändert sich jedoch sobald Quantencomputer in beliebiger Größe realisiert werden können, da die Faktorisierung mit dem Shor-Algorithmus unmittelbar erfolgen kann. Außerdem werden heute sicher verschlüsselte Texte eventuell mit den leistungsfähigeren Computern der Zukunft in einigen Jahren relativ leicht zu entschlüsseln sein. Literatur und Zusatzinformationen Koziol et al: RSA – Primzahlen zur Verschlüsselung von Nachrichten, Skript und Arbeitsblätter, Fraunhofer Institut Algorithmen und Wissenschaftliches Rechnen SCAI und Mathematisches Institut der Universität zu Köln. A. Beutelspacher, J. Schwenk, K.-D. Wolfenstetter: Moderne Verfahren der Kryptographie, Vieweg, 2006. Bogy-Praktikum G. Thäter: Wasserraketen. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 49, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2015. <http://modellansatz.de/wasserraketen> S. Ritterbusch: Digitale Währungen. Gespräch mit G. Thäter im Modellansatz Podcast, Folge 32, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. <http://modellansatz.de/digitale-waehrungen>
11/12/2015 • 20 minutes, 49 seconds
Electrodynamics
This episode discusses the Born-Infeld model for Electromagnetodynamics. Here, the standard model are the Maxwell equations coupling the interaction of magnetic and electric field with the help of a system of partial differential equations. This is a well-understood classical system. But in this classical model, one serious drawback is that the action of a point charge (which is represented by a Dirac measure on the right-hand side) leads to an infinite energy in the electric field which physically makes no sense. On the other hand, it should be possible to study the electric field of point charges since this is how the electric field is created. One solution for this challenge is to slightly change the point of view in a way similar to special relativity theory of Einstein. There, instead of taking the momentum () as preserved quantity and Lagrange parameter the Lagrangian is changed in a way that the bound for the velocity (in relativity the speed of light) is incorporated in the model. In the electromagnetic model, the Lagrangian would have to restrict the intensity of the fields. This was the idea which Borne and Infeld published already at the beginning of the last century. For the resulting system it is straightforward to calculate the fields for point charges. But unfortunately it is impossible to add the fields for several point charges (no superposition principle) since the resulting theory (and the PDE) are nonlinear. Physically this expresses, that the point charges do not act independently from each other but it accounts for certain interaction between the charges. Probably this interaction is really only important if charges are near enough to each other and locally it should be only influenced by the charge nearest. But it has not been possible to prove that up to now. The electrostatic case is elliptic but has a singularity at each point charge. So no classical regularity results are directly applicable. On the other hand, there is an interesting interplay with geometry since the PDE occurs as the mean curvature equation of hypersurfaces in the Minkowski space in relativity. The evolution problem is completely open. In the static case we have existence and uniqueness without really looking at the PDEs from the way the system is built. The PDE should provide at least qualitative information on the electric field. So if, e.g., there is a positive charge there could be a maximum of the field (for negative charges a minimum - respectively), and we would expect the field to be smooth outside these singular points. So a Lipschitz regular solution would seem probable. But it is open how to prove this mathematically. A special property is that the model has infinitely many inherent scales, namely all even powers of the gradient of the field. So to understand maybe asymptotic limits in theses scales could be a first interesting step. Denis Bonheure got his mathematical education at the Free University of Brussels and is working there as Professor of Mathematics at the moment. Literature and additional material M. Kiessling: Electromagnetic Field Theory Without Divergence Problems 1, The Born Legacy, Journal of Statistical Physics, Volume 116, Issue 1, pp 1057-1122, 2004. M. Kiessling: Electromagnetic Field Theory Without Divergence Problems 2, A Least Invasively Quantized Theory, Journal of Statistical Physics, Volume 116, Issue 1, pp 1123-1159, 2004. M. Kiessling: On the motion of point defects in relativistic fields, in Quantum Field Theory and Gravity, Conceptual and Mathematical Advances in the Search for a Unified Framework, Finster e.a. (ed.), Springer, 2012. Y. Brenier: Some Geometric PDEs Related to Hydrodynamics and Electrodynamics, ICM Vol. III pp 761--772, 2002.
10/29/2015 • 29 minutes, 16 seconds
Impedanztomographie
Stefanie Hollborn arbeitet an der Universität Mainz am Thema Elektrische Impedanztomographie, die im Vergleich zur Röntgentomographie deutlich weniger schädlich ist und im Vergleich zur Magnetresonanztomographie deutlich preiswerter ist. Mit Hilfe von Elektroden auf der Oberfläche von Objekten wird niedriger Strom auf den Rand des Objektes angelegt und anschließend die resultierende Spannung und dadurch die Impedanz gemessen. Mit Hilfe der daraus abgeleiteten Leitfähigkeitsverteilung im Schnittbild kann man dann Rückschlüsse darauf ziehen, ob im Körper Verunreinigungen vorhanden sind. Dies findet beispielsweise Anwendung bei der Sichtbarmachung, also der Tomographie, von Krebszellen oder beim Auffinden von Blasen in Zement. Der Vorteil des Verfahrens ist, dass es billig einsetzbar und nicht schädlich für lebende Organismen ist. Außerdem sind Kontraste häufig sehr gut auflösbar. Mathematisch werden die Gleichungen für die Wechselwirkung von Strom- und Magnetfeld als Modell zugrunde gelegt. Das Spannungspotential, das als Reaktion auf den Input vom Rand entsteht, lässt sich als Überlagerung von harmonischen Funktionen darstellen. Die Verunreinigungen sind überall da, wo eine harmonische Fortsetzung der Lösung vom Rand her nicht mehr möglich ist. Dort weicht das Feld dann nämlich vom homogenen Verhalten ab, das ohne die Verunreinigung vorliegen müsste. Frau Hollborn arbeitet insbesondere mit Daten die durch ein Paar eng nebeneinander liegende Elektroden entstehen. Die Hoffnung ist, daraus ein einfach einzusetzendes Werkzeug zu machen. Mathematisch muss hier ein eindimensionales Randwertproblem gelöst werden. Die Fortsetzung der Daten ins Innere ist jedoch ein so genanntes schlecht gestelltes Problem, bei dem Fehler verstärkt werden. Dieser Begriff geht zurück auf Jacques Hadamard, der den Begriff der gut gestellten Probleme eingeführt hat. Deshalb benutzt man insbesondere Vorwissen, um die Lösungen zu Regularisieren bzw. die regulären Lösungen aus der Schar aller möglichen Lösungen auszuwählen. Stefanie Hollborn hat sowohl Philosophie als auch Mathematik studiert. Für beide Gebiete ist die Logik ein fundamentales Konzept, wobei die formale mathematische Beschreibung ihre Anwendung sehr erleichtert. Literatur und weiterführende Informationen L. Borcea: Electrical impedance tomography, Inverse Probl. 18, R99-R136, 2002. M. Cheney, D. Isaacson, J. Newell: Electrical impedance tomography, SIAM Rev. 41, No.1, 85-101, 1999. M. Brühl, M. Hanke-Bourgeois: Kann die Mathematik der elektrischen Impedanztomographie zum Durchbruch verhelfen? Beitrag im Forschungsmagazin der Johannes Gutenberg-Universität Mainz, 2000. M. Hanke, S. Reusswig, N. Hyvönen: An inverse backscatter problem for electric impedance tomography, SIAM J. Math. Anal. 41.5, 1948-1966, 2009. S. Hollborn: Wie zwei Elektroden tiefe Einblicke gewähren
10/15/2015 • 30 minutes, 49 seconds
Klavierstimmung
Wie wirkt sich die Biegesteifigkeit von Klaviersaiten auf die Stimmung aus? Dieser Frage ist Niels Ranosch nachgegangen und erklärt uns im Gespräch mit Gudrun Thäter seine Ergebnisse. Das Schwingen von Klaviersaiten wird oft mit mit der Wellengleichung modelliert und simuliert; die Annahme ist hier, dass die Saite unendlich dünn ist. Betrachtet man die Saite jedoch mit realistischer Querschnittsfläche, so treten durch Dehnung und Stauchung weitere Kräfte im Material auf, und man muss in einem erweiterten Modell gerade für dicke oder kurze Saiten die Biegesteifigkeit der Saiten berücksichtigen. Die Wellengleichung ist eine partielle Differentialgleichung, die die Auslenkung der Saite mit zweiten Ableitungen im Raum und Zeit beschreibt. Zur Erweiterung des Modells wurde die Saite in einzelne Teilfasern aufgeteilt, für die jeweils einzeln die Biegesteifigkeit berücksichtigt wurde. Beim Übergang zu unendliche dünnen Teilfasern erhält man eine erweiterte Differentialgleichung, in der nun auch Raumableitungen vierter Ordnung auftreten. Bei der Lösung des erweiterten Modells ergibt sich nun, dass die Obertöne nicht perfekte Vielfache des Grundtons sind, und daher bei genauer Stimmung des Grundtons nicht harmonisch zu höheren Tönen wären. Daher werden die Grundtöne der Saiten absichtlich leicht verstimmt, damit die Obertöne akzeptabel zu höheren Tönen passen. Ein weiteres Problem für die Harmonie auf dem Klavier liegt im Quintenzirkel oder am Pythagoreischen Komma: Grundsätzlich kann man nicht gleichzeitig Quinten mit Frequenzverhältnis 3/2 und Oktaven mit Frequenzverhältnis 2 auf einem Klavier perfekt stimmen; man kann durch Multiplikation mit 3/2 kein Vielfaches von 2 erreichen. Nach 12 Quinten kommt man dem Ton nach 7 Oktaven sehr nahe, und dies wurde als Grundlage für das Klavier mit 12 Tasten pro Oktave gewählt. Den Fehler versucht man dann mit unterschiedlichen Stimmungen irgendwie erträglich zu machen, wie mit der heutzutage gängigen gleichstufigen Stimmung. Literatur und weiterführende Informationen Gareth Loy: Musimathics, MIT Press, 2007. S. M. Han, H. Benaroya, T. Wei: Dynamics of transversely vibrating beams using four engineering theories, Journal of sound and vibration 225.5: 935-988, 1999.
10/8/2015 • 32 minutes, 6 seconds
Nanophotonics
Nanophotonics is one great path into our future since it renders possible to build e.g. absorber, emitter or amplifier on a scale of a few dozen nanometers. To use this effectively we will have to understand firstly the resonances of plasmons and secondly the interaction of electromagnetic waves with complex media. Here on the one hand we can model light as waves and describe what is happening for the different frequencies of monochromatic light waves. We have to model the evolution in air or in more complex media. On the other hand - taking the more particle centered point of view - we can try to model the reaction of the photons to certain stimuli. The modelling is still in progress and explored in many different ways. The main focus of our guest Claire Scheid who is working on nanophotonics is to solve the corresponding partial differential equations numerically. It is challenging that the nanoscale-photons have to be visible in a discretization for a makro domain. So one needs special ideas to have a geometrical description for changing properties of the material. Even on the fastest available computers it is still the bottleneck to make these computations fast and precise enough. A special property which has to be reflected in the model is the delay in response of a photon to incoming light waves - also depending on the frequency of the light (which is connected to its velocity- also known as dispersion). So an equation for the the evolution of the electron polarization must be added to the standard model (which is the Maxwell system). One can say that the model for the permeability has to take into account the whole history of the process. Mathematically this is done through a convolution operator in the equation. There is also the possibility to explain the same phenomenon in the frequency space as well. In general the work in this field is possible only in good cooperation and interdisciplinary interaction with physicists - which also makes it especially interesting. Since 2009 Claire Scheid works at INRIA méditerranée in Sophia-Antipolis as part of the Nachos-Team and is teaching at the university of Nice as a member of the Laboratoire Dieudonné. She did her studies at the Ecole Normale Superieure in Lyon and later in Paris VI (Université Pierre et Marie Curie). For her PhD she changed to Grenoble and spent two years as Postdoc at the university in Oslo (Norway). Literature and additional material R. Léger, J. Viquerat, C. Durochat, C. Scheid and S. Lanteri: A parallel non-confoming multi-element DGTD method for the simulation of electromagnetic wave interaction with metallic nanoparticles, J. Comput. Appl. Math. Vol 270, p. 330-342, 2014. S. Descombes, C. Durochat, S. Lanteri, L. Moya, C. Scheid, J. Viquerat: Recent advances on a DGTD method for time-domain electromagnetism, Photonics and Nanostructures, Volume 11, issue 4, 291-302, 2013. K. Busch, M. König, J. Niegemann: Discontinuous Galerkin methods in nanophotonics, Laser and Photonics Reviews, 5, pp. 1–37, 2011.
10/1/2015 • 39 minutes, 26 seconds
InSAR - SAR-Interferometrie
Im Rahmen des ersten Alumitreffens im neu renovierten Mathematikgebäude gibt uns unser Alumnus Markus Even einen Einblick in seine Arbeit als Mathematiker am Fraunhofer IOSB, dem Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung in Ettlingen in der Arbeitsgruppe zur Analyse und Visualisierung von SAR-Bilddaten. Er befasst sich mit der Entwicklung von Algorithmen für die Fernerkundung, genauer gesagt für die Deformationsanalyse mit Hilfe von SAR-Interferometrie (InSAR). Deformation bezieht sich hier auf Bewegungen der Erdkruste oder auf ihr befindlicher Strukturen, z.B. von Bauwerken. Hinter dem Stichwort SAR-Interferometrie verbirgt sich eine Vielfalt von Verfahren der Fernerkundung, die auf Synthetic Aperture Radar, auf Deutsch Radar mit synthetischer Apertur, beruhen, und die die Fähigkeit der Sensorik ein kohärentes Signal zu verarbeiten zur Erzeugung sogenannter Interferogramme nutzen. Für SAR ist es wesentlich, dass der Sensor bewegt wird. Zu diesem Zweck ist er auf einen Satelliten, ein Flugzeug oder auch auf einem auf Schienen laufenden Schlitten montiert. Für die Mehrzahl der Anwendungen wird er entlang einer näherungsweise geradlinigen Bahn bewegt und sendet in festen Zeitabständen elektromagnetische Signale im Mikrowellenbereich aus, deren Returns er, unterteilt in sehr kurze Zeitintervalle, aufzeichnet. Dabei "blickt" er schräg nach unten, um nicht systematisch von zwei verschiedenen Orten der Erdoberfläche rückkehrende Signale zu vermischen. Herauszuheben ist, dass er unabhängig von der Tageszeit- er beleuchtet die Szene selbst- und weitgehend unabhängig von den Wetterverhältnissen- die Atmosphäre verzögert das Signal, ist aber für diese Wellenlängen (ca. 3cm-85cm) bis auf seltene Ausnahmen durchlässig dafür- Aufnahmen machen kann. Dies ist ein Vorzug gegenüber Sensoren, die im optischen oder infraroten Teil des Spektrums arbeiten, und nachts oder bei Bewölkung nicht die gewünschten Informationen liefern können. Neben der Magnitude des rückgestreuten Signals zeichnet der SAR-Sensor auch dessen Phasenverschiebung gegenüber einem Referenzoszillator auf, die die Grundlage für die Interferometrie darstellt und viele Anwendungsmöglichkeiten bietet. Aus dem aufgezeichneten Signal wird das sogenannte fokusierte Bild berechnet. (Mathematisch gesehen handelt es sich bei dieser Aufgabe um ein inverses Problem.) Die Achsen dieses komplexwertigen Bildes entsprechen eine der Position des Satelliten auf seiner Bahn und die andere der Laufzeit des Signals. Der Zahlenwert eines Pixels kann vereinfacht als Mittel der aufgezeichneten Rückstreuung aus dem Volumen angesehen werden, dass durch das jeweilige Paar aus Bahninterval und Laufzeitinterval definiert ist. Dies ist der Kern von SAR: Die Radarkeule erfasst eine größere Fläche auf dem Boden, so dass das aufgezeichnete Signal aus der Überlagerung aller zurückkehrenden Wellen besteht. Diese Überlagerung wird durch die Fokusierung rückgängig gemacht. Dazu benutzt man, dass ein Auflösungselement am Boden zu allen Returns beiträgt, solange es von der Radarkeule erfasst wird und dabei eine bekannte Entfernungskurve durchläuft.Die Magnitude des sich so ergebenden Bildes erinnert bei hochaufgelösten Aufnahmen auf den ersten Blick an eine Schwarzweißphotographie. Betrachtet man sie jedoch genauer, so stellt man schnell Unterschiede fest. Erhabene Objekte kippen zum Sensor, da die höhergelegenen Punkte näher zu ihm liegen. Hohe Werte der Magnitude, also hohe Rückstreuung, sind in der Regel mit günstigen geometrischen Konstellationen verbunden: Eine ebene Fläche muss dazu beispielsweise senkrecht zum einfallenden Signal ausgerichtet sein, was selten der Fall ist. Geht man an die Grenze des aktuell Möglichen und betrachtet ein Bild einer städtischen Umgebung eines luftgetragenen Sensors mit wenigen Zentimetern Auflösung, so scheint es beinahe in punktförmige Streuer zu zerfallen. Diese werden durch dihedrale (Pfosten) und- häufiger- trihedrale Strukturen erzeugt. Trihedrale Strukturen reflektieren das einfallende Signal parallel zur Einfallsrichtung (man kennt das von den an Fahrzeugen verwendeten, Katzenaugen genannten Reflektoren). Sehr niedrige Rückstreuung ist meist darin begründet, dass kein Signal mit der entsprechenden Laufzeit zum Sensor zurückkehrt, sei es weil keine Streuer erreicht werden (Schatten) oder das Signal auf glatten Flächen vom Satelliten weggespiegelt wird. Für Wellenlängen von einigen Zentimetern sind z.B. asphaltierte oder gepflasterte Flächen glatt, bei Windstille ist es auch Wasser. Daneben gibt es auch kompliziertere Streumechanismen, die zu Magnituden mittlerer Höhe führen, etwa Volumenstreuung in Vegetation, Schnee und Sand, verteilte Streuung an Flächen mit vielen kleinen, homogen verteilten Objekten (z.B. Kiesflächen oder andere Flächen mit spärlicher Vegetation) oder einer gewissen Rauigkeit. Außer diesen gibt es noch viele weitere Möglichkeiten, wie Mehrfachreflektionen oder das Zusammenfallen in verschiedenen Höhen positionierter Streuer in einer Entfernungszelle.Die für die SAR-Interferometrie wesentliche Information aber ist die Phase. Sie kann allerdings nur genutzt werden, wenn zwei oder mehr Aufnahmen aus annähernd der gleichen Position vorliegen. Die grundlegende Idee dabei ist die Betrachtung von Doppeldifferenzen der Phase zweier Pixel zweier Aufnahmezeitpunkte. Um sie zu verstehen nehmen wir zunächst an, dass sich in beiden Auflösungszellen je ein dominanter, punktförmiger Streuer befindet, was so gemeint ist, dass die Phase einer Laufzeit entspricht. Da die Subpixelpositionen unbekannt sind und die Größe der Auflösungszelle um Vieles größer als die Wellenlänge ist, ist die Phasendifferenz zweier Pixel eines einzelnen Bildes nicht verwertbar. In der Doppeldifferenz heben sich die unbekannten Subpixelpositionen allerdings heraus. Die Doppeldifferenz ist in dieser idealisierten Situation die Summe dreier Anteile: des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien, des Laufzeitunterschiedes auf Grund einer relativen Positionsänderung der Streuer während der zwischen den Aufnahmen verstrichenen Zeit und des Laufzeitunterschiedes auf Grund der räumlichen und zeitlichen Variation der atmosphärischen Verzögerung. Diese drei Anteile können jeder für sich nützliche Information darstellen. Der Erste wird zur Gewinnung von Höhenmodellen genutzt, der Zweite zur Detektion von Deformationen der Erdoberfläche und der Dritte, obwohl meist als Störterm angesehen, kann bei der Bestimmung der Verteilung von Wasserdampf in der Atmosphäre genutzt werden. Es stellt sich aber die Frage, wie man diese Terme separiert, zumal noch die Mehrdeutigkeit aufgelöst werden muss, die darin liegt, dass die Phase nur bis auf ganzzahlige Vielfache von zwei Pi bekannt ist.Weitere Fragen ergeben sich, da in realen Daten diese Annahmen für viele Pixel nicht erfüllt sind. Stellt man sich beispielsweise eine Auflösungszelle mit mehreren oder vielen kleineren Streuern vor (z.B. mit Geröll), so ändert sich die Phase der überlagerten Returns mit dem Einfallswinkel des Signals. Sie ändert sich auch, wenn manche der Streuer bewegt wurden oder die beiden Aufnahmen nicht ausreichend genau zur Deckung gebracht wurden. Dies führt dazu, dass die Phase sich um einen schlecht quantifizierbaren Betrag ändert. Man spricht dann von Dekorrelation. Eventuell besteht nach Änderung der physischen Gegebenheiten in der Auflösungszelle keine Beziehung mehr zwischen den Phasenwerten eines Pixels. Dies ist etwa der Fall, wenn ein dominanter Streuer hinzu kommt oder nicht mehr anwesend ist, ein Gelände überschwemmt wird oder trocken fällt. Es stellt sich also die Frage, welche Pixel überhaupt Information tragen, bzw. wie ihre Qualität ist und wie sie extrahiert werden kann.Die Geschichte der SAR-Interferometrie begann nach dem Start des ESA-Satelliten ERS 1 im Jahr 1991 mit einfachen differentiellen Interferogrammen. Das berühmteste ist sicher das vom Landers-Erdbeben 1992 in Kalifornien. Zum ersten Mal in der Geschichte der Wissenschaft war es möglich, das Deformationsfeld eines Erdbebens flächig zu messen, wenn auch nur die Komponente in Sichtlinie des Sensors. Statt Werte hunderter in der Region installierter Messstationen stellte das Interferogramm ein Bild des Erdbebens mit Millionen Datenpunkten dar. Diese Fähigkeit, großflächig Deformationen der Erdoberfläche aufzuzeichnen, besitzt nur die SAR-Interferometrie! Allerdings ist zu bemerken, dass dieses Resultat seine Entstehung auch günstigen Umständen verdankt. Landers liegt in der Mojave-Wüste, so dass die Variation der atmosphärischen Verzögerung und die Dekorrelation vernachlässigbar waren. Dank der Verfügbarkeit eines guten Höhenmodells konnte der Anteil des Laufzeitunterschiedes auf Grund der verschiedenen Aufnahmegeometrien eliminiert werden (man spricht dann von einem differentiellen Interferogramm). Ein weiterer Meilenstein war die Shuttle Radar Topography Mission des Space Shuttle Endeavour im Februar 2000, während der die Daten für ein Höhenmodell der gesamten Landmasse zwischen 54 Grad südlicher Breite und 60 Grad nördlicher Breite aufgezeichnet wurden. Für diesen Zweck wurde die Endeavour mit zwei SAR-Antennen ausgestattet, eine am Rumpf, eine an einem 60 Meter langen Ausleger. Dank zeitgleicher Aufnahmen waren die Phasenanteile auf Grund Deformation und atmosphärischer Verzögerung vernachlässigbar. Dekorrelation auf Grund von Änderungen der physischen Gegebenheiten spielt hier auch keine Rolle. Dem Wunsch nach einem weltweiten, dazu deutlich höher aufgelösten Höhenmodell kommt seit 2010 die TanDEM-X-Mission des DLR nach, bei der die beiden SAR-Antennen von zwei Satelliten im Formationsflug getragen werden. Auch in der Algorithmik gab es entscheidende Fortschritte. Einer der fruchtbarsten war die Erfindung von Permanent Scatterer Interferometric SAR (PSInSAR) um das Jahr 2000, das durch die Verwendung einer längeren Zeitreihe von differentiellen Interferogrammen und einiger neuer Ideen das Problem der Separierung der im vorangehenden Abschnitt genannten Terme löste. Der Ausgangspunkt hierfür war die Entdeckung, dass häufig eine größere Anzahl über lange Zeiträume phasenstabile Streuer, die sogenannten Permanent Scatterer (auch Persistent Scatterer oder PS), gefunden werden können, die man sich vereinfacht als Pixel vorstellen darf, deren Auflösungszelle einen dominanten, punktförmigen, über die Zeitreihe unveränderten Streuer enthält. Auf diese wird nun die Auswertung beschränkt, die vereinfacht folgende Schritte durchläuft: Definition eines Graphen mit den PS als Knoten und Paaren benachbarter PS als Kanten; Schätzung einer Modellphase für Deformation und Höhenmodellfehler an Hand der Doppeldifferenzen aller verwendeten differentiellen Interferogramme für alle Kanten; Entrollen von Originalphase minus Modellphase, d.h. Auflösen der Mehrdeutigkeiten; räumlich-zeitliche Filterung, um die Variation der atmosphärischen Verzögerung zu eliminieren. Als Produkt ergeben sich für jeden PS seine Bewegung in Sichtlinie des Sensors und eine Korrektur seiner Höhenlage relativ zum für die Erzeugung der differentiellen Interferogramme verwendeten Höhenmodell. Seither wurden diese Grundideen modifiziert und verfeinert. Vor allem müssen die Berücksichtigung verteilter Streuer (auch Distributed Scatterer oder DS) für die Deformationsanalyse erwähnt werden, was die Informationsdichte vor allem in ariden Gebieten drastisch erhöhen kann, sowie die SAR-Tomographie, die eine Analyse auch dann erlaubt, wenn zwei oder drei vergleichbar starke Streuer in einer Auflösungszelle vorhanden sind (z.B. wenn ein Streuer am Boden, eine Fensterniche und eine Dachstruktur den gleichen Abstand zum Sensor haben). Die SAR-Interferometrie, insbesondere die Deformationsanalyse, verwendet vor allem mathematische Methoden aus den Bereichen Stochastik, Signalverarbeitung, Optimierungstheorie und Numerik. Besondere Herausforderungen ergeben sich daraus, dass die Vielfalt natürlicher Phänomene sich nur bedingt durch einfache statistische Modelle beschreiben lässt und aus dem Umstand, dass die Datensätze in der Regel sehr groß sind (ein Stapel von 30 Aufnahmen mit komplexwertigen 600 Megapixeln ist durchaus typisch). Es treten lineare Gleichungssysteme mit mehreren Zehntausend Unbekannten auf, die robust gelöst sein wollen. Für die Auflösung der Mehrdeutigkeiten verwenden die fortgeschrittensten Algorithmen ganzzahlige Optimierung. Wavelet-basierte Filterverfahren werden genutzt, um die atmosphärische Verzögerung vom Nutzsignal zu trennen. Im Zusammenhang mit der Schätzung der Variation der atmosphärischen Verzögerung werden geostatistische Verfahren wie Kriging eingesetzt. Statistische Tests werden bei der Auswahl der DS, sowie zur Detektion schlechter Pixel eingesetzt. Bei der Prozessierung der DS spielen Schätzer der Kovarianzmatrix eine prominente Rolle. Die SAR-Tomographie nutzt Compressive Sensing und viele weitere Verfahren. Zusammenfassend lässt sich sagen, dass die SAR-Interferometrie auch aus Perspektive eines Mathematikers ein reichhaltiges und spannendes Arbeitsgebiet ist. Eine wichtige Anwendung ist die Deformationsanalyse durch die InSAR-Methode: Die SAR-Interferometrie zeichnet sich vor allen anderen Techniken dadurch aus, dass sie bei geeignetem Gelände sehr großflächige Phänomene mit sehr hoher Informationsdichte abbilden kann. Allerdings liefert sie relative Messungen, so dass in der Regel eine Kombination mit Nivellement oder hochgenauen GPS-Messungen verwendet wird. Ihre Genauigkeit hängt neben der Qualität der Daten von der Wellenlänge ab und zeigt bei 3cm Wellenlänge meist nur wenige Millimeter je Jahr Standardabweichung. Damit können selbst sehr feine Bewegungen, wie z.B. die Hebung des Oberrheingrabens (ca. 2mm/y), nachgewiesen werden. Allerdings können wegen der Mehrdeutigkeit der Phase Bewegungen auch zu stark sein, um noch mit PSInSAR auswertbar zu sein. In diesem Fall können längere Wellenlängen, höhere zeitliche Abtastung oder Korrelationsverfahren helfen. Trotz der diskutierten Einschränkungen lässt sich die Deformationsanalyse mit InSAR in vielen Zusammenhängen nutzensreich einsetzen, denn auch die Ursachen für Deformationen der Erdoberfläche sind vielfältig. Neben geologischen und anderen natürlichen Phänomenen werden sie von Bergbau, Förderung von Wasser, Erdgas, Erdöl, durch Geothermiebohrungen, Tunnelbau oder andere Bautätigkeiten ausgelöst. Meist steht bei den Anwendungen die Einschätzung von Risiken im Fokus. Erdbeben, Vulkanismus, aber auch Schäden an kritischer Infrastruktur, wie Deichen, Staudämmen oder Kernkraftwerken können katastrophale Folgen haben. Ein weiteres wichtiges Thema ist die Entdeckung oder Beobachtung von Erdbewegungen, die sich potentiell zu einem Erdrutsch entwickeln könnten. Allein in den Alpen gibt es tausende Bergflanken, wo sich größere Bereiche in langsamer Bewegung befinden und in Leben oder Infrastruktur gefährdende Hangrutsche münden könnten. Auf Grund der zunehmenden Erderwärmung nimmt diese Bedrohung überall dort zu, wo Permafrost zu tauen beginnt, der bisher den Boden stabilisierte. InSAR wird bei der Erstellung von Risikokarten genutzt, die der Beurteilung der Gefährdungslage und der Entscheidung über Gegenmaßnahmen dienen. In vielen Regionen der Erde werden Deformationen der Erdoberfläche durch veränderte Grundwasserstände verursacht. Nimmt das Grundwasser ab, etwa wegen Entnahme zur Bewässerung oder industriellen Verwendung, so senkt sich die Erdoberfläche. Nimmt das Grundwasser während regenreicher Zeiten zu, so hebt sich die Erdoberfläche. Das Monitoring mit InSAR ist hier aus mehreren Gründen interessant. Bewegungen der Erdoberfläche können Schäden an Gebäuden oder anderen Strukturen verursachen (Bsp. Mexico City). Übermäßige Wasserentnahme kann zu irreversibler Verdichtung der wasserführenden Schichten führen, was Konsequenzen für die zukünftige Verfügbarkeit der lebenswichtigen Flüssigkeit hat. Bei Knappheit muss die Entnahme reguliert und überwacht werden (Bsp. Central Valley, Kalifornien). Von besonderer Bedeutung sind durch geologische Phänomene wie Vulkanismus oder tektonische Bewegungen verursachte Deformationen der Erdoberfläche. Die von SAR-Satelliten gewonnenen Daten werden zur Einschätzung von Risiken benutzt, auch wenn eine sichere, frühzeitige und zeitgenaue Vorhersage von Erdbeben oder Vulkanausbrüchen mit den heutigen Methoden nicht möglich ist. Sie sind aber die Grundlage für eine ausgedehnte Forschungsaktivität, die unser Verständnis der Vorgänge in der Erdkruste stetig wachsen lässt und immer genauere Vorhersagen erlaubt. Dies ist in erster Linie den SAR-Satelliten der ESA (ERS-1, ERS-2, Envisat und aktuell Sentinel-1A) zu verdanken, die seit 1991 mit lediglich einer Lücke von zwei Jahren (2012-2014) kontinuierlich die gesamte Erde aufnehmen. Die Idee dabei ist, dass so in festem zeitlichen Rhythmus (bei ERS alle 35 Tage) jeder Punkt der Erde aufgenommen wird. Dadurch ist ein großes Archiv entstanden, das es nach einem geologischen Ereignis ermöglicht, dieses mit den Methoden der SAR-Interferometrie zu untersuchen, da die Vorgeschichte verfügbar ist. Eine Entwicklung der letzten Jahre ist die Nutzung bei der Erschließung von Erdgas und Erdöl. Die mit InSAR sichtbar gemachten Deformationen erlauben es, neue Einsicht in die Struktur der Lagerstätten zu erhalten, geomechanische Modelle zu kalibrieren und letztlich die Rohstoffe Dank optimierter Positionierung von Bohrlöchern effektiver und kostengünstiger zu fördern. Wer InSAR noch besser verstehen will, der findet in den InSAR Guidlines der ESA die Grundlagen sehr gut erklärt. Einen etwas breiteren Überblick über Anwendungsmöglichkeiten kann man sich auf der Homepage von TRE verschaffen, einem Unternehmen, das von den Schöpfern von PSInSAR gegründet wurde und im Bereich InSAR-Auswertungen nach wie vor führend ist. Die Wettbewerber ADS und e-GEOS bieten außer InSAR weitere Anwendungen von SAR-Daten. Aus wissenschaftlich/politischer Perspektive kann man sich in der Broschüre der DLR über Themenfelder der Erdbeobachtung informieren. Zu dem speziellen Thema der Erdbewegung auf Grund Absenkung des Grundwasserspiegels in den USA gibt es weitere Informationen. Literatur und weiterführende Informationen A. Ferretti, A. Monti-Guarnieri, C. Prati, F. Rocca, D. Massonnet: InSAR Principles: Guidelines for SAR Interferometry Processing and Interpretation, TM-19, ESA Publications, 2007. M. Fleischmann, D. Gonzalez (eds): Erdbeobachtung – Unseren Planeten erkunden, vermessen und verstehen, Deutsches Zentrum für Luft- und Raumfahrt e.V., 2013. Land Subsidence, U.S. Geological Survey. M. Even, A. Schunert, K. Schulz, U. Soergel: Atmospheric phase screen-estimation for PSInSAR applied to TerraSAR-X high resolution spotlight-data, Geoscience and Remote Sensing Symposium (IGARSS), IEEE International, 2010. M. Even, A. Schunert, K. Schulz, U. Soergel: Variograms for atmospheric phase screen estimation from TerraSAR-X high resolution spotlight data, SPIE Proceedings Vol. 7829, SAR Image Analysis, Modeling, and Techniques X, 2010. M. Even: Advanced InSAR processing in the footsteps of SqueeSAR Podcast: Raumzeit RZ037: TanDEM-X Podcast: Modellansatz Modell010: Positionsbestimmung Podcast: Modellansatz Modell012: Erdbeben und Optimale Versuchsplanung Podcast: Modellansatz Modell015: Lawinen
9/24/2015 • 40 minutes, 14 seconds
Photobioreaktoren
Photobioreaktoren sind eine große Hoffnung für unsere Zukunft ohne Erdöl. Sie nutzen die Tatsache aus, dass verschiedenste Algensorten für uns nützliche Stoffe produzieren können. Im einfachsten Fall Futter für unsere Tiere, aber auch Äthanol als Treibstoff oder allgemein als Energieträger. Bei Grünalgen ist die Photosynthese der wichtige Stoffwechselprozess, der natürlich auch Licht braucht und Kohlendioxid. Bevor Photobioreaktoren wirklich effektiv arbeiten können, müssen jedoch viele Aspekte des Prozesses noch viel besser verstanden werden. Hier stehen wir erst am Anfang der Entwicklung. Judith Kolbe hat in ihrer Masterarbeit ein Modell erprobt, das die Verklumpung (technisch: Agglomeration) von Algen beim Fließen durch geschlossene Zylinder beschreiben soll. Das Anliegen ist, durch vorherige Simulation die Bedingungen im Reaktor so zu optimieren, dass die Verklumpung möglichst vermieden wird, damit es nicht zu Fäule und zum Absterben der Algen kommt. Besondere Effekte am Rand des Behälters wurden hier zunächst gar nicht betrachtet. Als Beispielfall wurden sehr kleine Algen- Mikroorganismen- betrachtet, für die die eigene Geometrie keine allzu große Rolle bei der Verklumpung spielt. Der wichtigste Aspekt im Modell ist die Annahme, dass die kugelförmigen Partikel einen Schmierfilm auf ihrer Oberfläche tragen. Zwei Partikel, die während ihrer Bewegung im Fluid zufällig zusammenstloßen, verschmelzen zu einem größeren, wenn die umgesetzte Energie im Schierfilm dissipieren kann. Die Strömung des Trägerfluids geht hier vor allem als Kraftwirkung auf die Algenpartikel ein (inklusive der Bewegungsrichtung). Der Vorteil dieses Modells ist zum einen, dass es so einfach ist, dass es nur wenige Parameter benötigt und zum anderen, dass die Interpretation der Ergebnisse klar ist (im sogenannten Postprocessing). Ein großer Nachteil ist, dass die Zahl der Partikel, die man einzeln so behandeln kann, durch die Rechenstärke schnell sehr stark eingeschränkt wird, selbst wenn ausgenutzt wird, dass man die Rechnungen hervorragend parallelisieren kann. Deshalb wurde in der Arbeit schließlich auch nur ein prototypischer Würfel von 4mm Seitenlänge in der Mitte des zylindrischen Reaktors simuliert. Literatur und weiterführende Informationen H. Chmiel: Bioreaktoren, Bioprozesstechnik, Spektrum Akademischer Verlag, 2011. C. T. Crowe, J. D. Schwarzkopf, M. Sommerfeld, Y. Tsuji: Multiphase flows with droplets and particles, CRC press, 2011. B. J. Ennis, G. Tardos, R. Pfeffer: A microlevel-based characterization of granulation phenomena, Powder Technology, 65(1), 257-272, 1991. D. Hänel: Molekulare Gasdynamik: Einführung in die kinetische Theorie der Gase und Lattice-Boltzmann-Methoden, Springer-Verlag, 2006. W. Pietsch, Wolfgang: Size enlargement by agglomeration, New York, Wiley, 1991. Podcast Konscience KNS015: Energie aus Biomasse, Erstmal die Chinchillas ruhigstellen, 2014.
8/13/2015 • 35 minutes, 19 seconds
Sprache PDGL
Catherine Bandle war bis 2003 Professorin am Mathematischen Institut der Universität in Basel. Aber auch über die Emeritierung hinaus ist sie sehr rege in der Forschung zu elliptischen und parabolischen partiellen Differentialgleichungen. Das zeigt sich an einer beeindruckenden Zahl von Publikationen, der Teilnahme an Tagungen und im Einbringen ihrer Erfahrung in die Tätigkeit von Gremien wie dem Landeshochschulrat Brandenburg und dem Steering Committee of the European Science Foundation program: Global and Geometric Aspects of Nonlinear Partial Differential Equations. Ihre Faszination für die Vielseitigkeit dieses Themas in den Anwendungen und die Zusammenhänge zur Geometrie haben sich über viele Jahrzehnte erhalten. Für den Workshop Nonlinear Days 2015 wurde sie für einen Hauptvortrag nach Karlsruhe eingeladen. Wir haben diese Gelegenheit genutzt, das Thema der Modellbildung mit Hilfe von partiellen Differentialgleichungen mit ihr etwas allgemeiner zu beleuchten. Traditionell stehen elliptische wie parabolische Gleichungen am Beginn der modernen Modellbildung von Prozessen in der Physik, der Biologie und Chemie. Hier sind es Diffusions-, Reaktions-, Transport- und Wachstumsprozesse, die zunächst durch gewöhnliche Differentialgleichungen beschrieben wurden. Allerdings waren vor etwa 150 Jahren die Anwendungen in Teilen schon zu komplex für dieses zu einfache Modell. Abhängigkeiten von Veränderungen in allen Raum- und der Zeitrichtung sollten interagierend erfasst werden. Das führte zwingend auf die partiellen Differentialgleichungen. Mit dem Aufstellen der Gleichungen verband sich die Hoffnung, durch die zugehörigen Lösungen Vorhersagen treffen zu können. Um diese Lösungen zu finden, brauchte es aber ganz neue Konzepte. Am Anfang der Entwicklung standen beispielsweise die Fourierreihen, die (unter den richtigen Voraussetzungen) eine Darstellung solcher Lösungen sein können. Werkzeuge wie Fourier- und Lapalacetransformation konnten zumindest für bestimmte Geometrien hilfreiche Antworten geben. Später wurder der Begriff der schwachen Lösung bzw. schwachen Formulierung geprägt und die damit verbundenen Sobolevräume auf verschiedenen Wegen entwickelt und untersucht. Die Suche nach den Lösungen der Gleichungen hat damit die theoretische Entwicklung in der Mathematik stark vorangetrieben. Heute sind wir froh, dass wir in der linearen Theorie (siehe auch Lemma von Lax-Milgram) vieles verstanden haben und versuchen uns Stück für Stück nichtlineare Modellen anzueignen. Ein erster Schritt ist häufig eine lokale Linearisierung oder das Zulassen von Nichtlinearitäten in untergeordneten Termen (semilineare Probleme). Ein integraler Bestandteil ist hier jedoch auch die Möglichkeit, mehr als eine Lösung der Gleichung zu haben und wir brauchen deshalb Konzepte, die physikalisch relevante unter ihnen zu finden. Hier sind Konzepte der Stabilität wichtig. Nur stabile Lösungen sind solche, die zu beobachtbaren Phänomenen führen. Wichtige Werkzeuge in der Lösungstheorie sind auch die Normen, in denen wir unsere Lösungen messen. Am überzeugendsten ist es, wenn sich Normen in Energien des Systems übersetzen lassen. Dann kann man auch die Stabilität im Rahmen von Energieerhaltung und Energieminimierung diskutieren. Literatur und Zusatzinformationen Catherine Bandle: Die Mathematik als moderne Weltsprache - Am Beispiel der Differenzialgleichungen, UniNova Wissenschaftsmagazin der Universität Basel, Band 87, 2000. R.Farwig: Skript zu Elementaren Differentialgleichungen, Technische Universität Darmstadt, 2008. Videos zu PDEs (in Englisch) Video zur Fourierreihenidee auf Deutsch
8/6/2015 • 31 minutes, 59 seconds
Splitting Waves
To separate one single instrument from the acoustic sound of a whole orchestra- just by knowing its exact position- gives a good idea of the concept of wave splitting, the research topic of Marie Kray. Interestingly, an approach for solving this problem was found by the investigation of side-effects of absorbing boundary conditions (ABC) for time-dependent wave problems- the perfectly matched layers are an important example for ABCs. Marie Kray works in the Numerical Analysis group of Prof. Grote in Mathematical Department of the University of Basel. She did her PhD 2012 in the Laboratoire Jacques-Louis Lions in Paris and got her professional education in Strasbourg and Orsay. Since boundaries occur at the surface of volumes, the boundary manifold has one spatial dimension less than the actual regarded physical domain. Therefore, the treatment of normal derivatives as in the Neumann boundary condition needs special care. The implicit Crank-Nicolson method turned out to be a good numerical scheme for integrating the time derivative, and an upwinding scheme solved the discretized hyperbolic problem for the space dimension. An alternative approach to separate the signals from several point sources or scatterers is to apply global integral boundary conditions and to assume a time-harmonic representation. The presented methods have important applications in medical imaging: A wide range of methods work well for single scatterers, but Tumors often tend to spread to several places. This serverely impedes inverse problem reconstruction methods such as the TRAC method, but the separation of waves enhances the use of these methods on problems with several scatterers. Literature and additional material F. Assous, M. Kray, F. Nataf, E. Turkel: Time-reversed absorbing condition: application to inverse problems, Inverse Problems, 27(6), 065003, 2011. F. Assous, M. Kray, F. Nataf: Time reversal techniques for multitarget identification, in Ultrasonics Symposium (IUS), IEEE International (pp. 143-145). IEEE, 2013. M. Grote, M. Kray, F. Nataf, F. Assous: Wave splitting for time-dependent scattered field separation, Comptes Rendus Mathematique, 353(6), 523-527, 2015.
7/30/2015 • 19 minutes, 44 seconds
Perfekte Gleichgewichte
Wie können wir die globale Erwärmung stoppen? Viola Caspari hat dazu eine spieltheoretische Masterarbeit abgeschlossen. Ihr Interesse galt sogenannten trembling-hand perfekten Gleichgewichten. Dies sind Nash Gleichgewichte mit der besonderen Eigenschaft, dass auch kleine Änderungen in den Daten die Eigenschaft, dass es sich um ein Nash-Gleichgewicht handelt, nicht ändert. Es sind also Strategiekombinationen, die für Entscheidungsfindungen besonders hilfreich sein können. Das Gefangenendilemma ist eines der grundlegenden theoretischen Beispiele aus der Spielttheorie, an dem man verschiedene Strategien illustrieren kann. Als Anwendungsfall behandelte Sie die Verteilung öffentlicher Güter mit unsicherem Schwellwert. Der Hintergrund hierfür sind die laufenden Verhandlungen zwischen allen Staaten, die dazu führen sollen, dass eine mittlere Erwärmung um 2 Grad Kelvin oder mehr vermieden werden kann. Die Erwärmung ist direkt gekoppelt an den CO2-Ausstoß der Staaten. Und natürlich haben alle Staaten Einfluss darauf, wie ihre CO2-Bilanz aussieht. Sie können beispielsweise Geld investieren, um Kohlekraftwerke durch erneuerbare Energieerzeuger abzulösen oder Filter in Schornsteine einbauen, und vieles mehr. Im Modell werden aus den Staaten also Spieler mit verschiedenen Strategien als Handlungsoptionen. Jede Strategie ist mit Kosten verbunden aber auch mit dem Nutzen in Form von eingesparten CO2-Ausstoß. Diese Relationen variieren auch nach der Größe der Wirtschaft der Länder. Gesucht sind nun Handlungsempfehlungen, die dafür sorgen, dass die Staaten solche Absprachen treffen, dass die Schwelle für die katastrophale Klimaveränderung aussbleibt und sich auch an diese Absprachen halten. Eine gute Methode hierfür ist die Einigung auf trembling-hand perfekte Nash-Gleichgewichte, weil hier eine Änderung der eigenen Strategie nur zur Verschlechterung für einen selbst führt. Der Egoismus dient also als Antrieb, sich an getroffene Abmachungen zu halten. Literatur und Zusatzinformationen C. Feige, K.-M. Ehrhart, J. Krämer: Voting on contributions to a threshold public goods game - an experimental investigation, KIT Working Paper 60, August 2014. S. Berninghaus, K.-M. Ehrhart, W. Güth: Strategische Spiele, eine Einführung in die Spieltheorie, Springer-Lehrbuch, Springer, Berlin, 3., verb. Aufl., 2010. R. Selten: Reexamination of the perfectness concept for equilibrium points in extensive games, International Journal of Game Theory, 4(1):25–55, 1975.
7/23/2015 • 19 minutes, 33 seconds
Wilde Singularitäten
Anja Randecker befasst sich in ihrer Forschung mit so genannten wilden Singularitäten, die im Zusammenhang mit Translationsflächen auftreten, und erklärt im Gespräch mit Gudrun Thäter die Faszination dieser mathematischen Konstruktionen. Translationsflächen sind im klassischen Fall Polygone in der Ebene, die an ihren Kanten topologisch verklebt werden. Beim Quadrat erhält man beispielsweise einen Donut, oder auch Torus: (Animation von Kieff zum Verkleben, veröffentlicht als Public Domain): Lokal betrachtet verhält sich eine Translationsfläche wie eine Ebene, da man lokal immer eine Abbildung, eine mathematische Kartenabbildung, von einem kleinen Gebiet der Fläche in ein Gebiet der Ebene angeben kann - dabei geht aber die globale Gestalt der Fläche verloren. Man sieht also nicht mehr, dass der Donut in der Mitte ein Loch hat. Das entspricht dem Problem der Erstellung von Landkarten, was lokal zwar sehr gut funktioniert, aber bei größeren Flächen müssen die Kartenprojektionen starke Verzerrungen in Kauf nehmen. Beim Verkleben der parallelen Kanten von zwei Fünfecken (eins steht auf der Kante, eins auf der Spitze) werden, wie im Beispiel zuvor, alle Ecken miteinander identifiziert und werden zu einem Punkt. Dann erhält man ein Objekt, das wie zwei zusammengebackene Donuts aussieht. Dort verhalten sich alle Punkte auf dem Objekt wie zuvor, bis auf den Punkt, in dem alle Ecken identifiziert sind: Dort hat man einen Panoramablick von 1080 Grad, und somit eine Singularität - genauer eine konische Singularität. Hier hat der Punkt eine Umgebung, die isometrisch zu einer Überlagerung einer Kreisschreibe ist, da wir endliche viele Polygone in der Ebene verklebt haben. Nimmt man hingegen unendliche viele Polygone, oder unterteilt die Kanten in unendlich viele Segmente und verklebt diese, so können die verklebten Ecken eine viel wildere Umgebung haben. Das führt dann zu den so genannten wilden Singularitäten. Diese werden erst seit relativ kurzer Zeit erforscht, sie kommen aber auch bei dynamischen Systemen auf Translationsflächen vor. Hier möchte man in der aktuellen Forschung Begriffe der Konvergenz und damit eine Topologie auf einem Raum der Translationsflächen einführen, um das Verhalten von dynamischen Systemen auf diesem Raum beschreiben und analysieren zu können. Eine Frage ist hier, ob den wilden Singularitäten etwas ähnliches wie die Isometrie zur Kreisscheibe bei den konischen Singularitäten zugeordnet werden kann. Zunächst ist deren Umgebung überraschenderweise wegzusammenhängend. Die Umgebung kann aber auch unendliches Geschlecht besitzen, wie Anja Randecker nun beweisen konnte- die Umgebung hat also unendliche viele Löcher in der Umgebung- und nicht nur ein Loch wie der Donut. Literatur und Zusatzinformationen A. Zorich: Flat surfaces, Frontiers in number theory, physics, and geometry I: 439-585, 2006. A. Randecker: Skript zur Vortragsreihe Unendliche Translationsflächen, Fakultät für Mathematik, Karlsruher Institut für Technologie (KIT), 2014. J. P. Bowman, F. Valdez: Wild singularities of flat surfaces, Israel Journal of Mathematics, 197(1), 69-97, 2013. Modellansatz Podcast Modell040: Topologie Modellansatz Podcast Modell042: Teichmüllerkurven
7/16/2015 • 26 minutes, 25 seconds
Zweibeiner
Wie bringt man einem Roboter das Gehen bei? Cornelius Kuhs hat sich dieser Frage am Humanoiden Fünf-Segment-Läufer am Institut für Technische Mechanik gestellt, und hat die Bewegungen am Modell von Differentialgleichungen auf die Energieeffizienz des Bewegungsablaufs studiert. Die Energieeffizienz bezieht sich hier auf die spezifischen Transportkosten, das ist hier die aufgebrachte Energie geteilt durch das Produkt von Gewicht und zurückgelegter Distanz. Die Bewegungsabläufe sind jedoch nicht durch analytisches Lösen der Differentialgleichungen des Modells zu bestimmen, hier wurden verschiedene Ansätze ausgetestet, die dann mittels mathematischer Optimierung auf einen möglichst geringen Energieverbrauch verbessert werden. Dabei sind viele physikalische Randbedingungen, wie der Position des Bodens, und technische Bedingungen, die beispielsweise das Umknicken des Kniegelenks verhindern, schon im Modell eingebaut. Darüber hinaus gibt es aber auch weitere Eigenschaften und Einschränkungen, die verschiedene Lösungen mehr oder weniger nützlich erscheinen lassen. Aus mathematischer Sicht sind die Eigenschaften der Zielfunktion, die in der Optimierung betrachtet wird, sehr interessant: Diese sind oft nur stückweise differenzierbar, was aber bei der Differenzenquotienten keine Probleme macht- außer es tritt ein Pol auf. Mit der Berechenbarkeit von Ableitungen stehen sehr effiziente Gradienten-basierte Optimierungsverfahren zur Verfügung, jedoch ist die Zielfunktion nicht ableitbar, so werden die erwünschten Konvergenzeigenschaften eventuell nicht erreicht. Ebenso interessant ist der Bereich der numerischen Integration, da auch hier Schwierigkeiten bei geringer Ableitbarkeit der Integranden auftreten können: Effiziente Verfahren höherer Ordnung werden nur dann schneller zum Ergebnis führen, wenn es stückweise höhere Ableitungen der Funktionen gibt, die auch beschränkt bleiben. Ebenso gibt es die Frage der Schrittweite oder der Diskretisierung in der numerischen Differenziation. Diese Fragestellungen führen auf das Gebiet der numerischen Stabilität: Hier stellt man sich nicht die Frage, ob der Roboter steht, sondern ob überhaupt ein Ergebnis berechenbar oder das Berechnete glaubhaft oder mit mehr Rechenkapazität überhaupt genauer berechnet werden kann. Literatur und Zusatzinformationen E. Westervelt, J. Grizzle, C. Chevallereau, J. Choi, B. Morris: Feedback control of dynamic bipedal robot locomotion, CRC press, 2007. F. Bauer: Optimierung der Energieeffizienz zweibeiniger Roboter durch elastische Kopplungen, KIT Scientific Publishing, 2014.
7/9/2015 • 36 minutes, 37 seconds
Acoustic Scattering
Prof. Francisco Sayas from the Department of Mathematical Sciences of the University of Delaware in Newark has been visiting our faculty in June 2015. He is an expert in the simulation of scattering of transient acoustic waves. Scattering is a phenomenon in the propagation of waves. An interesting example from our everyday experience is when sound waves hit obstacles the wave field gets distorted. So, in a way, we can "hear" the obstacle. Sound waves are scalar, namely, changes in pressure. Other wave types scatter as well but can have a more complex structure. For example, seismic waves are elastic waves and travel at two different speeds as primary and secondary waves. As mathematician, one can abandon the application completely and say a wave is defined as a solution of a Wave Equation. Hereby, we also mean finding these solution in different appropriate function spaces (which represent certain properties of the class of solutions), but it is a very global look onto different wave properties and gives a general idea about waves. The equations are treated as an entity of their own right. Only later in the process it makes sense to compare the results with experiments and to decide if the equations fit or are too simplified. Prof. Sayas startet out in a "save elliptic world" with well-established and classical theories such as the mapping property between data and solutions. But for the study of wave equations, today there is no classical or standard method, but very many different tools are used to find different types of results, such as the preservation of energy. Sometimes it is obvious, that the results cannot be optimal (or sharp) if e.g. properties like convexity of obstacles do not play any role in getting results. And many questions are still wide open. Also, the numerical methods must be well designed. Up to now, transient waves are the most challenging and interesting problem for Prof. Sayas. They include all frequencies and propagate in time. So it is difficult to find the correct speed of propagation and also dispersion enters the configuration. On the one hand, the existence and regularity together with other properties of solutions have to be shown, but on the other hand, it is necessary to calculate the propagation process for simulations - i.e. the solutions - numerically.There are many different numerical schemes for bounded domains. Prof. Sayas prefers FEM and combines them with boundary integral equations as representative for the outer domain effects. The big advantage of the boundary integral representation is that it is physical correct but unfortunately, it is very complicated and all points on the boundary are interconnected. Finite Elements fit well to a black box approach which leads to its popularity among engineers. The regularity of the boundary can be really low if one chooses Galerkin methods. The combination of both tools is a bit tricky since the solver for the Wave Equations needs data on the boundary which it has to get from the Boundary element code and vice versa. Through this coupling it is already clear that in the coding the integration of the different tools is an important part and has to be done in a way that all users of the code which will improve it in the future can understand what is happening. Prof. Sayas is fascinated by his research field. This is also due to its educational aspect: the challenging mathematics, the set of tools still mainly unclear together with the intensive computational part of his work. The area is still wide open and one has to explain mathematics to other people interested in the results. In his carreer he started out with studying Finite Elements at the University in Zaragoza and worked on boundary elements with his PhD-supervisor from France. After some time he was looking for a challenging new topic and found his field in which he can combine both fields. He has worked three years at the University of Minnesota (2007-2010) and decided to find his future at a University in the U.S.. In this way he arrived at the University of Delaware and is very satisfied with the opportunities in his field of research and the chances for young researchers. Literature and additional material deltaBEM - Easy to Implement Boundary Integral Equations, open source software developed by Team Pancho at the Department of Mathematical Sciences in Delaware. A. R. Laliena, F. J. Sayas: Theoretical aspects of the application of convolution quadrature to scattering of acoustic waves, Numerische Mathematik, 112(4), 637-678, 2009. F. J. Sayas: Energy estimates for Galerkin semidiscretizations of time domain boundary integral equations, Numerische Mathematik, 124(1), 121-149, 2013. Modellansatz Podcast 003: Unsichtbarkeit (in German)
7/2/2015 • 40 minutes, 39 seconds
Steganographie
Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt. Hier hat Marius Musch in einem Vortrag eine Einführung in die Steganographie gegeben, und spricht nun mit Sebastian Ritterbusch im Podcast. Bei der Steganographie geht es darum, eine geheime Nachricht so zu versenden, dass niemand außer dem gewünschten Empfänger die Existenz dieser Nachricht überhaupt vermutet. Der Begriff kommt aus dem griechischen und bedeutet in etwa "geheimes Schreiben". So wurden schon in der Antike erste simple Formen der Steganographie verwendet. Statt wie üblich die Nachricht in der Wachs auf einer Wachstafel zu kratzen, wurde die geheime Nachricht in das Holz darunter geritzt und wieder Wachs darüber gegossen. Anschließend konnte eine harmlose Nachricht in das Wachs geschrieben werden und die geheime Nachricht war verdeckt darunter. Mit der Zeit wurden die Verfahren dann raffinierter, so wurde im Zweiten Weltkrieg aus einem japanischen Kriegsgefangenenlager eine scheinbar harmlose Postkarte verschickt. Liest man aber nur die ersten beiden Wörter jeder Zeile ergibt sich ein völlig neues Bild und es werden die Truppenverluste der Amerikaner kommuniziert. In in einem anderen Fall vereitelte amerikanische Kriegsgefangene Jeremiah Denton die Propagandaversuche in Vietnam während des Kalten Krieges. Während eines TV-Interviews blinzelte er wiederholt das Wort T-O-R-T-U-R-E in Morsecode. In der heutigen Zeit ist es natürlich naheliegend die Steganographie in der digitalen statt der analogen Welt einzusetzen. So kann man zum Beispiel schon in (Plain-)Text eine geheime Nachricht verstecken. Viele Texteditoren zeigen standardmäßig Leerzeichen und Tabs am Zeilenende (trailing whitespace) nicht an. Dies macht sich das Tool SNOW (steganographic nature of whitespace) zu nutze, um geheime Nachrichten zu verstecken, oder man schreibt gleich komplette Programme in der etwas verrückten Programmiersprache Whitespace. Deutlich verbreiteter und effektiver ist es aber als Tarn-Medium (das so genannter Cover) ein Bild zu nehmen. Bilder haben viele nützliche Eigenschaften, insbesondere dass geringe Änderungen für das menschliche Auge unsichtbar bleiben. Aber auch ihre Größe ist vorteilhaft da ein Bild leicht um den Faktor 1000 größer ist, als die darin zu versteckende Nachricht. Bei einem Grauwertbild wird typischerweise ein Byte pro Pixel verwendet, also die Helligkeit jedes Bildpunktes wird durch einen Wert zwischen 0 für Schwarz und 255 für Weiß repräsentiert. Dieses Byte besteht wiederum aus 8 Bits, zum Beispiel der Folge 11110000 für den Wert 120. In der Steganographie kann man sich zu Nutze machen, dass das hinterste Bit (least significant bit) nur sehr wenig zum eigentlichen Farbwert beträgt. Es entscheidet nur ob die Zahl gerade oder ungerade ist und wenn der Wert geändert wird, fällt einem Menschen dieser geringe Helligkeitsunterschied gar nicht auf. Somit kann man nun seine geheime Nachricht von den ASCII-Werten in Binärzahlen konvertieren und anschließend in den least significant Bits (LSBs) einbetten. Man braucht also 8 Pixel pro Buchstabe. Weitere Verfahren gibt es auf Basis spezieller Eigenschaften von Datenformaten wie GIF, PNG oder JPEG. Bei der Steganographie gibt es aber auch einiges zu beachten. Besonders wichtig ist es die Nachricht vor dem Einbetten zu verschlüsseln. Zum einen kann uns ein Angreifer, der das Verfahren kennt und die Nachricht extrahiert, sie trotzdem nicht lesen. Zum anderen lässt sich ein gut verschlüsselter Ciphertext nicht von echtem Zufall unterscheiden, um Angriffe zu erschweren. Hat man aber Zugriff auf das Orginalbild, so wird der Unterschied und damit die Nachricht offensichtlich- hier sind besonders umgekehrte Bildersuchen hilfreich. Im realen Einsatz sind meist Wasserzeichen, die Verfahren der Steganographie verwenden. Anders als bei der Steganographie, wo das Cover völlig irrelevant für die geheime Nachricht war, bezieht sich bei den Wasserzeichen die versteckte Nachricht auf das Cover. So bestätigt das Wasserzeichen auf einem Geldschein die Authentizität eben dieses Scheines. Es gibt aber auch Wasserzeichen die lange unbekannt waren. Zum Beispiel gibt es einige Drucker bekannter Hersteller, die in die ausgedruckten Seiten ein kaum sichtbares gelbes Punktemuster einbauen. In diesem Wasserzeichen steht sowohl das Datum des Druckes als auch die Seriennummer des Druckers. Auf Geldscheinen gibt es gelben Punkte in der EURion-Konstellation, die von Kopierern, Scannern und Software erkannt werden. Aber auch Spieler von Onlinerollenspielen wie World of Warcraft sind vor Wasserzeichen nicht sicher. So wurde 2012 in einem Forum bemerkt, dass die Screenshots aus dem Spiel per Wasserzeichen den Accountname und die Server-IP des Spielers beinhalten. Allerdings hinterlässt die Steganographie auch immer zwangsweise ihre Spuren, da das Bild manipuliert werden muss. Um die oben beschriebene LSB-Methode durch eine Steganalyse zu erkennen, reicht es sich das Histogramm des Bildes anzuschauen, denn durch das Verfahren ergeben sich treppenartige Abstufungen. Dies wiederum versucht das Tool Outguess zu vermeiden, indem es die LSB Änderungen geschickt über die Datei verteilt und das Histogramm unauffällig bleibt. Beliebte Angriffsmethoden sind auch die Autokorrelation und die FFT über das Wiener-Chintschin-Theorem, womit eine sehr effiziente Berechnung möglich wird. Das aktuelle Folgenbild des Podcasts zeigt ein Bild mit steganographisch versteckter Nachricht, das Marius für einen Capture the Flag-Wettbewerb auf der GPN14 im letzten Jahr erstellt hatte und jetzt erklärt. Auch auf der GPN15 gab es dieses Jahr wieder einen Capture the Flag Wettbewerb, veranstaltet von den Squareroots aus Mannheim und KITCTF aus Karlsruhe. Auch dieses Jahr lag der Fokus auf IT-Sicherheit: Die teilnehmenden Teams erhalten eine virtuelle Maschine (Vulnbox) mit mehreren verwundbaren Diensten, die sie analysizeren, die Ausnutzbarkeit prüfen und letztlich absichern sollen. Ein zentraler Gameserver verteilt sogenannte Flaggen an alle Teams, das sind lange zufällige Zeichenketten. Diese Flaggen gilt es zu verteidigen und durch Finden und Ausnutzen von Sicherheitslücken in den Diensten der anderen Teams zu stehlen und für Punkte beim Veranstalter einzureichen. Beim CTF auf der GPN15 gab es 11 teilnehmende Teams, die sich über einen Zeitraum von 5 1/2 Stunden insgesamt 7600 Flaggen gestohlen haben. Wer mehr über CTFs erfahren möchte, sollte insbesondere den CTF Field Guide lesen. Eine Übersicht über anstehende Veranstaltungen und die verschiedenen Teams findet man unter CTF Time. Literatur und Zusatzinformationen N. F. Johnson, J. Sushil: Exploring steganography, Computer 31.2,: 26-34, 1998. I. Cox, M. Miller, J. Bloom, J. Fridrich, T. Kalker: Digital watermarking and steganography, Morgan Kaufmann, 2007. M. Musch: Seeing the unseen, Vortrag auf der GPN15, 2015.
6/25/2015 • 1 hour, 40 minutes, 4 seconds
Spielcomputer
Seit 2002 veranstaltet der Entropia e.V. in Karlsruhe jährlich die Gulaschprogrammiernacht, das ist ein mehrtägiger Kongress, wo Nerds, Häcksen und Maker ihre Projekte vorstellen, Erfahrungen austauschen und Vorträgen lauschen. Die GPN15 fand Anfang Juni 2015 im ZKM und der HfG Karlsruhe statt, und zog diesmal auch Mathe-Begeisterte an: Florian Gilges ist mit dem Life Science Lab als Schüler nach Karlsruhe gekommen, und will unter anderem Näherungen an die Kreiszahl effizient berechnen. Dazu baut er sich einen eigenen Computer. Im Gespräch mit Sebastian Ritterbusch erklärt er uns, wie er dazu logische Gatter aus rotem Erz baut. Zunächst ist die Kreiszahl (Pi) als das Verhältnis von Umfang zu Durchmesser eines beliebigen Kreises definiert und ermöglicht uns mit der Formel auch aus dem Radius die Fläche eines Kreises zu berechnen. Da Pi jedoch eine sogenannte irrationale und transzendente Zahl ist (d.h. dass nach dem Komma unendlich viele Stellen folgen, die keine Wiederholung aufweisen), lässt sich der Wert nie exakt angeben. Um nun eine Näherung für Pi zu berechnen, lassen sich verschiedene Verfahren verwenden: Ein Kreis wird gezeichnet und Umfang und Durchmesser gemessen, das Verhältnis ist dann eine Näherung an Pi. Eine andere Möglichkeit ist die Berechnung durch eine Winkelfunktion: Der Arkustangens hat bei 1 den Wert . Nimmt man also die Taylorentwicklung des Arkustangens mit x=1 und multipliziert mit 4, erhält man Pi. Neben der (von der Konvergenzgeschwindigkeit) relativ ineffizienten Taylor-Reihe gibt es noch viele weitere Verfahren, die ebenfalls Pi annähern. Die Berechnung will Florian in Minecraft durchführen, und baut sich dafür einen Rechner innerhalb dieses Spiels. Aber wie kann ein einfaches Spiel so etwas bieten? Schließlich ist Minecraft nur eine Nachahmung unserer Welt mit ganz natürlichen Ressourcen. So bietet eine Minecraft-Welt verschiedene Vegetations- und Klimazonen und verschieden Landschaften und Umgebungen, wie z.B. Laubwälder, Nadelwälder, Steppen, Wüsten, Schneegebiete, uvm. Es gibt jedoch auch Stoffe, die es in unserer Welt nicht gibt: Einer davon ist Redstone. Dieser besondere Stoff kann in Höhlen tief unter der Erde als Erz gefunden werden und gibt abgebaut ein Pulver, das ähnliche Eigenschaften, wie elektrische Leitungen hat. Aus Redstone-Pulver und weiteren Materialien, die man in der Welt findet, lassen sich Logikelemente bauen: Inverter, Verstärker, Verzögerer und Vergleicher. Diese Basiselemente können vom Spieler in die Welt gebaut und zu großen Schaltungen zusammengesetzt werden. Angefangen bei einfachen Speichern und Signalstärkespeichern (Redstone-Energie hat 16 Stufen von 0 bis 15), bis hin zu Logikgattern, wie UND-Gatter, XOR-Gatter und Flip-Flops. Kurzum lassen sich mit den Basiselementen alle Komponenten für einen Computer zusammenstellen, aber auch einfachere Dinge, wie Code-Schlösser und Tür-Steuerungen sind möglich. Doch so einfach, wie es nun erscheint, ist es nicht, denn jedes Basiselement hat eine Verzögerung von mindestens einer Zehntel- bis vier Zehntelsekunden. Das bedeutet, dass der Computer sehr langsam wird und Berechnungen sehr aufwendig werden. Deshalb ist Optimierung sehr wichtig, indem an jeder Stelle die Bauteile effizienter gemacht werden und die Mathematik zur Berechung ebenfalls (für den Computer) effizienter gestaltet wird. Hier konnte Florian das XOR-Gatter und den Programm-Zähler aus Halbaddierern und Volladdierern durch intelligente Kniffe deutlich beschleunigen. Eine weitere Möglichkeit besteht auch in der Nutzung von redundanten Binärdarstellungen, die bei einer großen Anzahl von Additionen große Geschwindigkeitsvorteile bringen können. Neben der Optimierung der Hardware ist auch die Optimierung der Software wichtig, was zur Mathematik zurückführt: Berechnungen wie Multiplikationen, Potenzen oder Wurzeln sind auf Logikebene komplizierte Operationen, auch wenn unsere Taschenrechner die Aufgaben in Sekundenbruchteilen lösen. Der einfachste Weg für die Multiplikation ist, dass man eine Additionskette bildet: . Führt man dieses Verfahren mit größeren Zahlen durch, wächst der Aufwand linear. Ein anderes Verfahren ist die schriftliche Multiplikation, aber es geht noch effizienter: Die Russische Bauernmultiplikation. Mit etwas Übung lassen sich so, wenn gerade kein Taschenrechner da ist, auch große Zahlen multiplizieren. Für den Computer sind jedoch beide Verfahren durch das Binärsystem äquivalent. Komplizierter sind dann schon Wurzeln. Diese lassen sich nicht so leicht berechnen, wie eine Addition oder Multiplikation. Ein mögliches Näherungsverfahren ist das Heron-Verfahren. Es gibt jedoch auch das schriftliche Wurzelziehen, das im Binärsystem leicht zu implementieren ist. Florian hat sich diese Techniken aus Videos wie dem Youtube-Kanal Schoolseasy selbst angelernt.
6/18/2015 • 2 hours, 2 minutes, 30 seconds
L-Funktionen
Eine alte Fragestellung lautet, was die Summe der Kehrwerte aller natürlicher Zahlen ist. Mit anderen Worten: existiert der Grenzwert der Harmonischen Reihe ? Die Antwort, die man im ersten Semester kennenlernen ist: Diese Reihe ist divergiert, der Wert ist nicht endlich. Über die spannenden Entwicklungen in der Zahlentheorie, die sich daraus ergaben, berichtet Fabian Januszewski im Gespräch mit Gudrun Thäter. Eine verwandte Fragestellung zur harmonischen Reihe lautet: Wie steht es um den Wert von ? Diese Frage wurde im 17. Jahrhundert aufgeworfen und man wußte, daß der Wert dieser Reihe endlich ist. Allerdings kannte man den exakten Wert nicht. Diese Frage war als das sogannte Basel-Problem bekannt. Eine ähnliche Reihe ist Ihr Wert läßt sich elementar bestimmen. Dies war lange bekannt, und das Basel-Problem war ungleich schwieriger: Es blieb fast einhundert Jahre lang ungelöst. Erst Leonhard Euler löste es 1741: Die Riemann'sche -Funktion Die Geschichte der L-Reihen beginnt bereits bei Leonhard Euler, welcher im 18. Jahrhundert im Kontext des Basel-Problems die Riemann'sche -Funktion' entdeckte und zeigte, dass sie der Produktformel genügt, wobei die Menge der Primzahlen durchläuft und eine reelle Variable ist. Diese Tatsache ist äquivalent zum Fundamentalsatz der Arithmetik: jede natürliche Zahl besitzt eine eindeutige Primfaktorzerlegung. Eulers Lösung des Basel-Problems besagt, daß und diese Formel läßt sich auf alle geraden positiven Argumente verallgemeinern: , wobei die -te Bernoulli-Zahl bezeichnet. Im 19. Jahrhundert zeigte Bernhard Riemann, dass die a priori nur für konvergente Reihe eine holomorphe Fortsetzung auf besitzt, einer Funktionalgleichung der Form genügt und einen einfachen Pol mit Residuum bei aufweist. Letztere Aussage spiegelt die Tatsache wieder, dass in jedes Ideal ein Hauptideal ist und die einzigen multiplikativ invertierbaren Elemente sind. Weiterhin weiß viel über die Verteilung von Primzahlen. Setzen wir dann zeigte Riemann, daß die so definierte vervollständigte Riemann'sche -Funktion auf ganz holomorph ist und der Funktionalgleichung genügt. Da die -Funktion Pole bei nicht-positiven ganzzahligen Argumenten besitzt, ergibt sich hieraus die Existenz und Lage der sogenannten "trivialen Nullstellen" von : für . Konzeptionell sollte man sich den Faktor als Eulerfaktor bei vorstellen. John Tate zeigte in seiner berühmten Dissertation, daß dies tatsächlich sinnvoll ist: Die endlichen Eulerfaktoren werden von Tate als Integrale über interpretiert, und der "unendliche" Eulerfaktor ist ebenfalls durch ein entsprechendes Integral über gegeben. Er legte damit den Grundstein für weitreichende Verallgemeinerungen. Die Riemann'sche -Funktion ist der Prototyp einer -Funktion, einem Begriff, der langsam Schritt für Schritt verallgemeinert wurde, zunächst von Richard Dedekind, Lejeune Dirichlet und Erich Hecke und weiter von Emil Artin, Helmut Hasse, André Weil, Alexander Grothendieck, Pierre Deligne, Jean-Pierre Serre und Robert Langlands et al. -Funktionen spielen in der modernen Zahlentheorie eine zentrale Rolle, und bis heute ranken sich fundamentale Vermutungen um diesen Begriff. Selbst die Mysterien der Riemann'schen -Funktion sind auch heute bei weitem nicht vollständig ergründet. Die berühmteste Vermutung in diesem Kontext ist die Riemann'sche Vermutung. Riemann zeigte 1859 nicht nur, daß die Riemann'sche -Funktion eine holomorphe Fortsetzung auf besitzt, sondern stellte auch einen engen Zusammenhang zwischen der Verteilung der Primzahlen und den Nullstellen von her. Eulers Produktenwicklung von für zeigt, dass stets für . Aus der Funktionalgleichung von ergibt sich, dass für natürliche Zahlen . Die sind die sogenannten trivialen Nullstellen der -Funktion. Riemann vermutete, dass sämtliche nicht-trivialen Nullstellen auf der Geraden liegen. Euler bestimmte im wesentlichen die Werte für positives . Bis heute wissen wir sehr wenig über die Werte an positiven ungeraden Argumenten. Ein Satz von Apéry besagt, daß irrational ist. Wir haben allerdings keine einfache Formel für diesen Funktionswert. Konzeptionell unterscheiden sich die ungeraden von den geraden positiven Argumenten darin, daß der in auftretende Faktor der -Funktion für ungerades positives dort einen Pol besitzt, was ebenfalls das Verschwinden von zur Folge hat. Über die Werte an negativen ungeraden Argumenten wissen wir aus der Funktionalgleichung, daß . Insbesondere gilt . Dieser Wert kann in gewissen Kontexten als Grenzwert (der divergierenden!) Reihe interpretiert werden (formal ergeben diese Identitäten natürlich keinen Sinn). In gewissen Situationen ist der Funktionswert ein sinnvoller endlicher Ersatz für den nicht existierenden Grenzwert der Reihe . Derartige Phänomene treten in Zahlentheorie an vielen Stellen auf. Literatur und Zusatzinformationen Haruzo Hida, Elementary theory of -functions and Eisenstein series, Cambridge University Press, 1993. Jean-Pierre Serre, "Cours d'arithmétique", Presses Universitaires de France, 1970. Goro Shimura, "Introduction to the arithmetic theory of automorphic functions." Princeton University Press, 1971. Jürgen Neukirch, Algebraische Zahlentheorie, Springer Verlag, 1992. André Weil, Basic Number Theory, Springer Verlag, 1973. Podcast Modellansatz 036: Analysis und die Abschnittskontrolle Bernhard Riemann, Über die Anzahl der Primzahlen unter einer gegebenen Grösse, Monatsberichte der Königlich Preußischen Akademie der Wissenschaften zu Berlin, 1859 John T. Tate, "Fourier analysis in number fields, and Hecke's zeta-functions", Algebraic Number Theory (Proc. Instructional Conf., Brighton, 1965), Thompson, 1950, S. 305–347. Andrew Wiles, "Modular Elliptic Curves and Fermat’s Last Theorem." Annals of Mathematics 142, 1995, S. 443–551. Richard Taylor, Andrew Wiles, "Ring-theoretic properties of certain Hecke algebras." Annals of Mathematics 142, 1995, S. 553–572. Brian Conrad, Fred Diamond, Richard Taylor, "Modularity of certain potentially Barsotti-Tate Galois representations", Journal of the American Mathematical Society 12, 1999, S. 521–567. Christophe Breuil, Brian Conrad, Fred Diamond, Richard Taylor, "On the modularity of elliptic curves over Q: wild 3-adic exercises", Journal of the American Mathematical Society 14, 2001, S. 843–939. Frobeniushomomorphismus Galois-Darstellungen Weil-Vermutungen Standard-Vermutungen Automorphe Formen Das Langlands-Programm Wikipedia: Automorphe L-Funktionen Emil Artin, Über eine neue Art von -Reihen, Abh. Math. Seminar Hamburg, 1923. Armand Borel, "Automorphic L-functions", in A. Borel, W. Casselman, "Automorphic forms, representations and L-functions" (Proc. Sympos. Pure Math., Oregon State Univ., Corvallis, Oregon, 1977), Teil 2, Proc. Sympos. Pure Math., XXXIII, American Mathematical Society, 1979, S. 27–61. Robert P. Langlands, "Problems in the theory of automorphic forms", in "Lectures in modern analysis and applications III," Lecture Notes in Math 170, 1970, S. 18–61. Robert P. Langlands, '"'Euler products", Yale University Press, 1971. Wikipedia: Spezielle Werte von L-Funktionen Pierre Deligne; "Valeurs de fonctions L et périodes d’intégrales." , in A. Borel, W. Casselman, "Automorphic forms, representations and L-functions" (Proc. Sympos. Pure Math., Oregon State Univ., Corvallis, Oregon, 1977)'', Teil 2, Proc. Sympos. Pure Math., XXXIII, American Mathematical Society, 1979, S. 313–346.
6/11/2015 • 59 minutes, 51 seconds
Waves
Prof. Enrique Zuazua is a Distinguished Professor of Ikerbasque (Basque Foundation for Science) and Founding Scientific Director at the Basque Center for Applied Mathematics (BCAM), which he pushed into life in 2008. He is also Professor in leave of Applied Mathematics at the Universidad Autónoma de Madrid (UAM) and a Humboldt Awardee at the University of Erlangen-Nuremberg (FAU) as well. He was invited by the PDE-group of our Faculty in Karlsruhe to join our work on Wave Phenomena for some days in May 2015. In our conversation he admits that waves have been holding his interest since his work as a PhD student in Paris at the Université Pierre-et-Marie-Curie in the world famous group of Jacques-Louis Lions. Indeed, waves are everywhere. They are visible in everything which vibrates and are an integral part of life itself. In our work as mathematician very often the task is to influence waves and vibrating structures like houses or antennae such that they remain stable. This leads to control problems like feedback control for elastic materials. In these problems it is unavoidable to always have a look at the whole process. It starts with modelling the problem into equations, analysing these equations (existence, uniqueness and regularity of solutions and well-posedness of the problem), finding the right numerical schemes and validating the results against the process which has been modelled. Very often there is a large gap between the control in the discrete process and the numerical approximation of the model equations and some of these differences are explainable in the framework of the theory for hyperbolic partial differential equations and not down to numerical or calculation errors. In the study of Prof. Zuazua the interaction between the numerical grid and the propagation of waves of different frequencies leads to very intuitive results which also provide clear guidelines what to do about the so-called spurious wave phenomena produced by high frequencies, an example of which is shown in this podcast episode image. This is an inherent property of that sort of equations which are able to model the many variants of waves which exist. They are rich but also difficult to handle. This difficulty is visible in the number of results on existence, uniqueness and regularity which is tiny compared to elliptic and parabolic equations but also in the difficulty to find the right numerical schemes for them. On the other hand they have the big advantage that they are best suited for finding effective methods in massively parallel computers. Also there is a strong connection to so-called Inverse Problems on the theoretical side and through applications where the measurement of waves is used to find oil and water in the ground, e.g (see, e.g. our Podcast Modell004 on Oil Exploration). Prof. Zuazua has a lot of experience in working together with engineers. His first joint project was shape optimization for airfoils. The geometric form and the waves around it interact in a lot of ways and on different levels. Also water management has a lot of interesting and open questions on which he is working with colleagues in Zaragoza. At the moment there is a strong collaboration with the group of Prof. Leugering in Erlangen which is invested in a Transregio research initiative on gasnets which is a fascinating topic ranging from our everyday expectations to have a reliable water and gas supply at home to the latest mathematical research on control. Of course, in working with engineers there is always a certain delay (in both directions) since the culture and the results and questions have to be translated and formulated in a relevant form between engineers and mathematicians. In dealing with theses questions there are two main risks: Firstly, one finds wrong results which are obviously wrong and secondly wrong results which look right but are wrong nonetheless. Here it is the crucial role of mathematicians to have the right framework to find these errors. Prof. Zuazua is a proud Basque. Of the 2.5 Mill. members of the basque people most are living in Spain with a minority status of their culture and language. But since the end of the Franco era this has been translated into special efforts to push culture and education in the region. In less than 40 years this transformed the society immensely and led to modern universities, relevant science and culture which grew out of "nothing". Now Spain and the Basque country have strong bonds to the part of Europe on the other side of the Pyrenees and especially with industry and research in Germany. The Basque university has several campuses and teaches 40.000 students. This success could be a good example how to extend our education system and provide possibilities for young people which is so much a part of our culture in Europe across the boundaries of our continent.
5/7/2015 • 48 minutes, 10 seconds
Strukturoptimierung
Peter Allinger und Nick Stockelkamp optimieren bei der Dassault Systèmes in Karlsruhe Formen, Strukturen und Strömungen im Bereich des Maschinenbaus. Anwendungsbeispiele reichen vom Zahnimplantat bis zum Schiffsdiesel und typische Optimierungskriterien sind Gewicht, Fertigungskosten und Haltbarkeit. Dabei hat sich der Fokus von einfachen Fragestellungen wie der Durchbiegung hin zu komplexen Fragestellungen wie der Geräuschentwicklung. In der Fluid-Optimierung geht es unter anderem um die Reduzierung von Druckverlusten, der Vermeidung von Turbulenzen oder auch Verbesserung von Wärmetauschern, beispielweise unterstützt durch den Löser OpenFOAM. Dabei gibt es unterschiedliche Vorhegensweisen: Man kann entweder die Veränderung der Objekte durch Hinzufügen oder Abziehen von Material hervorrufen, oder man berechnet die Sensitivität der Zielgröße bezüglich Veränderungen an den Oberflächen. Der mögliche Design-Raum wird in vielen Anwendungen mit der Finite-Elemente-Methode diskretisiert, um zu einem lösbaren Problem zu gelangen, wobei Strömungen oft mit Finite-Volument-Verfahren gelöst werden. Die zentrale Frage ist jedoch, wann man ein Bauteil als optimal bezeichnen kann. Hier hat Prof. Eckart Schnack in den 70er Jahren den Ansatz beschrieben, dass eine gleichmäßige Spannungsverteilung eines beanspruchten Bauteils ein optimales Bauteil auszeichnen kann. Im Fall von strukturmechanischen Belastungen gibt es für diesen Optimalitätsbegriff iterative Löser, jedoch sind Fragestellungen im Umfeld von Eigenwertprobleme noch ein offenes Forschungsgebiet. Literatur und Zusatzinformationen Schnack, E. "Ein Iterationsverfahren zur Optimierung von Spannungskonzentrationen." Inaugural Dissertation, Kaiserslautern University (1977).
4/30/2015 • 50 minutes, 26 seconds
Erdrutsche
Katharina Elsen ist für 6 Monate aus Bologna im Rahmen eines Forschungsaufenthalts nach Karlsruhe gekommen. In Ihrer Forschungsgruppe zur numerischen Geophysik sind Tsunamis im Mittelmeerraum, wie beispielsweise im Raum von Italien und der Türkei, das Hauptforschungsgebiet. Ein Auslöser für Tsunamis sind Erdbeben, aber auch Erdrutsche können der Grund für die großen Wasserwellen sein, die dann sogar eine globale Auswirkung haben können. Im Varjont-Tal kam es 1963 nach dem Aufstauen eines Stausees zu einem Landrutsch. Dieser führte zu einer Tsnuamiwelle im Stausee, die in ihrer Größe weit unterschätzt wurde, und zur schrecklichen Tragödie von Langarone führte. Solche Vorgänge können natürlich auch in Küstengebieten auftreten und die gegenüberliegenden Küsten gefährden. Im Gegensatz zu sehr plötzlichen seismischen Aktivitäten können Landrutsche weit langfristigere Vorgänge sein. Auch können die sich bewegenden Landmassen aus beweglichem Schlamm oder feinem Geröll bestehen oder aus eher festen Bestandteilen. Dies beeinflusst stark die möglichen Modelle, und Katharina Elsen beschreibt im Gespräch mit Gudrun Thäter ihre Modelle und Forschung zu Landrutschen von Bergabschnitten, die sich eher wie ein Festkörper als wie ein Fluid verhalten. Die Landmassen werden in einige Festkörper-Masseblöcke aufgeteilt, die jeweils Massenzentren bzw. Baryzentren besitzen und deren Berandung bekannt ist. Daraus wird die individuelle Bewegung der Blöcke modelliert, wie auch die gegenseitige Beeinflussung auf verschiedene Arten. Letztlich wird dann untersucht, wie die Blöcke letztlich durch Geschwindigkeit und Form auf das Wasser wirken, um bessere Aussagen über resultierende Wellenhöhe treffen zu können. Der erste Schritt zur Simulation ist die Zerlegung der gleitenden Oberflächen in Dreiecke, und dann wird die Bewegung der einzelnen Massepunkte für das vereinfachte Modell durch die klassische Newtonsche Mechanik zunächst exakt berechnet. Für die Beeinflussung der Massepunkte zueinander werden verschiedene approximierende Modelle erforscht, und Parameter entsprechend den Beobachtungen identifiziert. Die Ansätze und Modelle fließen in eine Software zur Erdrutschsimulation, die auch im Bereich der Reibungsmodelle überarbeitet wurde: Da auf triangulisierten Oberflächen alle Funktionen und Eigenschaften dort bisher nur in linearisierter Form auftreten, können höhere Ableitungen nur über erweiterte Modelle approximiert werden. Literatur und Zusatzinformationen F. Zaniboni, S. Tinti: Numerical simulations of the 1963 Vajont landslide, Italy: application of 1D Lagrangian modelling, Natural hazards 70.1: 567-592, 2014. S. Tinti, P. Gianluca, Z. Filippo: The landslides and tsunamis of the 30th of December 2002 in Stromboli analysed through numerical simulations, Bulletin of Volcanology 68.5, 462-479, 2006. S. Tinti: How can we defend ourselves from the hazard of Nature in the modern society?, GIFT 2013, Natural Hazards Geosciences Information for Teachers Workshop, Vienna, Austria, 2013. Podcast Modellansatz 012: Erdbeben und optimale Versuchsplanung Podcast Modellansatz 015: Lawinen und Muren
4/16/2015 • 37 minutes, 28 seconds
Flipped Classroom
An Pädagogischen Hochschulen werden Lehrerinnen und Lehrer für fast alle Schulformen ausgebildet, es gibt sie inzwischen in Deutschland nur noch in Baden-Württemberg. Beispielsweise seien die Pädagogische Hochschule Heidelberg und die Pädagogische Hochschule Karlsruhe genannt- hier in Karlsruhe gibt es zusätzlich auch eine Abteilung für Didaktik an der Fakultät für Mathematik am KIT. An den pädagogischen Hochschulen werden aber nicht nur Pädagogik und Didaktik unterrichtet, sondern auch die entsprechenden Fachrichtungen und jeweilige didaktische Konzepte in diesen Fachrichtungen. Christian Spannagel unterrichtet so als Professor für Mathematik und Informatik in den Fächern, und erzählt im Gespräch mit Sebastian Ritterbusch, wie er didaktische Konzepte für den Mathematikunterricht erforscht und aktiv erprobt. Die Frage nach Verbesserung des Mathematik-Unterrichts ist sehr aktuell: Die OECD-Studie zu Geschlechtsunterschieden in der Schule hat gerade in Mathematik Verbesserungspotential aufgezeigt, denn viele geben Mathe auf, weil sie nachweislich fälschlich glauben, sie könnten es nicht. Der zentrale Begriff ist hier die Selbstwirksamkeitserwartung, die insbesondere in Naturwissenschaften und Mathematik durch gesellschaftliche Einflüsse stark geprägt ist. Die Erforschung neuer Lehrmethoden kann aber nicht den Ersatz der bisherigen und erprobten Konzepte zum Ziel haben: So sind selbst vermeintlich alte Übungen zum Kopfrechnen und zur schriftlichen Division auch heute noch überaus wichtige Hilfen zur Vermittlung von Algorithmen, Stellenwertsystemen und auch zur Vorbereitung auf ein Studium. Das Ziel muss sein, den Fundus möglicher Vermittlungsformen zu bereichern, und für verschiedene Konzepte bessere Kombinationen der Verfahren zu finden. Ein nützliches neues Werkzeug ist die Tabellenkalkulation, mit der beispielsweise Würfelexperimente und Simulationen im Unterricht interaktiv erfahrbar gemacht werden können. Ebenso können Dynamische Geometriesysteme den Zugang zur Konstruktion und Analytischer Geometrie, wie beispielsweise den Satz des Thales, deutlich vereinfachen. Die Software GeoGebra ist ein solches System, das insbesondere auch unterschiedliche Darstellungen und Analyse der Konstruktionen ermöglicht. Leider ist es zu Zeit noch nicht möglich, dass in Klassen jederzeit an jedem Platz ein Rechner zum Einsatz interaktiver Experimente vorhanden ist. Aber auch an einem interaktiven Whiteboard können die Methoden durchgeführt werden. Die technische Ausstattung ist aber nur ein kleiner Schritt zur Einführung neuer Werkzeuge in den Unterricht, auch die Lehrerinnen und Lehrer müssen die Kompetenzen zum Einsatz der neuen Medien erlernen. Hier müssen die pädagogischen Hochschulen den Lehramtsstudierenden den Weg bereiten, damit das Lehrpersonal zu Beginn und auch in ihrer langen Lehrzeit für den Stand und die Entwicklung der Technik vorbereitet ist. Auch Wissensmanagement in der Form von Wikis haben in Schulen Einzug gehalten, so setzen Maria Eirich und Andrea Schellmann auf ein Schulwiki am Regiomontanus-Gymnasium Haßfurt und Lernpfade zum interaktiven Mathematik-Unterricht. Auch Schülerinnen und Schüler können hier selbst Quiz-Aufgaben erstellen. Michael Gieding und Andreas Schnirch haben für Geometrie-Vorlesungen an der PH Heidelberg ein Geometrie-Wiki auf dieser Technologie erstellt, das auch weiterhin für Lehrveranstaltungen für Lehramtsstudierende genutzt wird. Eine Einführung in die frühen interaktiven Elemente am CMS der Fakultät für Mathematik sind auf der Fragebogen-Seite mit einer Vielzahl von Beispielen zu finden. Gerade in Mathematik stellt die Einbindung digitaler Medien eine gewisse Hürde dar, da Formeln, Beweise, Algorithmen und Konstruktionszeichnung nicht leicht digitalisierbar sind- auch wenn das Textsatz-System LaTeX oder LyX im mathematischen Bereich mit perfektem Druckbild für fast alles verwendet werden kann, so muss man es erst erlernen- beispielsweise mit der l2kurz-Anleitung. Das Austauschen von abfotografierten Seiten ist da häufig deutlich effektiver. Dabei ein solcher Austausch zwischen den Lernenden sehr zu begrüßen, da es zum einen die gemeinsame Konstruktion von Lösungswegen begünstigt, aber auch die angehenden Lehrenden auf die Nutzung der Medien trainiert. Wichtig sind niederschwellige Zugänge und die Möglichkeit zu anonymen Beiträgen, da nur so das Lernen aus Fehlern ermöglicht wird. Im Flipped Classroom wird der Prozess der interaktiven Auseinandersetzung mit dem Lernstoff, der traditionell zu Hause erst bei den Hausaufgaben auftritt, in den Unterricht gebracht, und der herkömmliche Frontal-Unterricht aus dem Klassenzimmer verbannt. Dazu erhalten die Schülerinnen und Schüler oder die Studierenden zur Vorbereitung ein Video, in dem das grundsätzliche Verfahren erklärt wird. Die Unterrichtsstunde kann dann mit einer Fragerunde zum Videomaterial starten, gefolgt von einigen Aufgaben, die vom Plenum in Gruppenarbeit bearbeitet werden sollen. Hier werden Probleme und Fragen offensichtlich, die vom Lehrenden oder gemeinsam in einer Diskussion erörtert werden können. Anschließend könnte sich ein Hörsaal- oder Klassenzimmerspiel anschließen, das sowohl auflockert, als auch das Thema verfestigt. Dass besondere Ereignisse den Lernerfolg verbessern können, wurde auch beim Thema >Gestern hab ich noch Zeit genug< im Methodisch-Inkorrekt Podcast Folge 43 besprochen. Auch wenn es nicht immer außerordentliche Ereignisse geben kann, so ist eine sinnvolle Abwechslung der Lehrmethoden sicher zuträglich zur Verbesserung des Unterrichts. Neben der Frage zur zeitlichen Planung des Unterrichts sind auch Fragen innerhalb der Mathematik eine Untersuchung auf mögliche Vermittlungsmethoden interessant: Die Gaußsche Summenformel ist nicht nur wichtig zur Berechnung der Anzahl der Spiele in einer Fußball-Liga, sondern auch ein schönes Beispiel zur verschiedene mathematische Beweisverfahren. Die Formel kann durch vollständige Induktion bewiesen werden, ein anderer Ansatz ist die Verwendung von Dreieckszahlen zu einem ebenso korrekten ikonischen Beweis der Summenformel. Einen wichtigen Stellenwert hat auch die Haltung der Lehrperson: Anstatt zu demoralisieren, müssen die Lernenden in ihrem Lernprozess unterstützt und bei Bedarf geleitet werden. Dazu gehört auch die Anpassung der Komplexität an die unterschiedlichen Kenntnisse der Lernenden- eine fast unmögliche Aufgabe angesichts großer Unterschiede in den Vorkenntnissen. Eine Möglichkeit sind Angebote für optionale Übungsgruppen, oder Zusatzangebote für weitergehende Fragen. Ideal sind jedoch natürlich differenzierende Aufgaben, die von allen Lernenden je nach ihrem Kenntnisstand hinreichend und unterschiedlich umfangreich beantwortet werden können. Ein Beispiel ist hier die Aufgabe zu den Pythagoreischen Zahlentripeln, die sehr knapp, aber auch sehr weitreichend beantwortet werden kann. Eine andere interessante Frage steckt im Münzproblem, die man bis zur Frage der kleinsten Anzahl von Münzen zur Rückgabe aller Geldbeträge von 1-99 Cent beantworten kann (Optimal sind acht Münzen in vier möglichen Variationen: zB 1+1+2+5+10+10+20+50 oder 1+2+2+5+10+20+20+50). Die Frage der Evaluation von Unterrichtsmethoden wie dem Flipped Classroom ist leider nicht einfach zu beantworten: Es ist kaum möglich zwei Gruppen parallel und voneinander unbeeinflusst unterschiedlich zu unterrichten. Bei einer Evaluation zwischen verschiedenen Jahrgängen konnte ein besseres Abschneiden bei Prüfungen nicht sicher nachgewiesen werden, jedoch ist war das subjektive Empfinden der Studierenden gegenüber den neuen Methoden ausgesprochen positiv. Malte Persike hat entsprechende Ergebnisse erhalten, u.a. beim MOOC zur Wahrscheinlichkeitsrechnung, stellt aber auch zur Diskussion, dass bei mit herkömmlichen Methoden weniger erfolgreichen Dozenten die neue Methoden deutlich bessere Ergebnisse erzielen könnten. Bei der Umstellung auf Flipped Classroom-Konzepte ist die Videoerstellung oft nicht sehr aufwendig, da hier abgefilmte frühere Veranstaltungen in Frage kommen können. Dafür ist die Umstellung und die Planung des neuen Unterrichts oftmals deutlich aufwendiger, wenn man eine Stunde zum ersten Mal durchführt. Anders sieht es bei einem Massive Open Online Course, kurz MOOC, aus, für den Videos deutlich aufwendiger und in kürzerer Form produziert werden. MOOCs sind besonders durch Sebastian Thrun bekannt geworden, als er eine Vorlesung zur künstlichen Intelligenz online zur Verfügung stellte, an der etwa 160'000 Studierende teilnahmen. In der Regel werden Videos mit vorlesungsartigen Inhalten wöchentlich online gestellt, zu denen die Teilnehmer regelmäßig Aufgaben gestellt bekommen. Durch Verfügbarkeit im Internet können sehr viele an diesen Kurs teilnehmen, und durch die Verwendung offener Technologien und Zugänge ist die Teilnahme sehr niederschwellig und spricht viele Interessenten an. An der PH Heidelberg wurde der Mathe-MOOC Mathematisch Denken von Christian Spannnagel, Michael Gieding, Lutz Berger und Martin Lindner ins Leben gerufen, der das MOOC-Konzept nicht ganz klassisch umgesetzt hat. Viel mehr wurde ein Schwerpunkt auf Mathematikdidaktik gelegt: Statt einem festen Wechsel von Vorlesung und Übung wurden einführende experimentelle Einheiten eingesetzt, bei denen die Teilnehmenden schon im Vorfeld Ihre eigenen Erfahrungen mit dem Thema machen konnten. Die Bearbeitung der Aufgaben und der Vergleich der Lösungen erfolgte dann in öffentlichen Foren- eine abschließende Prüfung war in diesem MOOC nicht vorgesehen, sondern möglichst vielen einen Einstieg in die mathematische Denkweise ermöglichen. Die Teilnehmenden können sich selbst als Kiebitze, Anpacker und Formalisierer bezeichnen, auch von Aufgabe zu Aufgabe unterschiedlich- die Kiebitze sind hauptsächlich passive Zuschauer, wogegen die Anpacker die Lösungen aktiv, beispielsweise ikonisch, erarbeiten wollen. Die Formalisierer suchen schließlich die exakte mathematische Beschreibung und symbolische Lösung der Aufgaben. Diese Differenzierung ermöglicht eine Klarstellung der eigenen Teilnahmeabsicht und vereinfacht durch die Vorgabe verschiedener Ansätze den Zugang in den jeweiligen Nutzungsszenarien. MOOCs können und sollten herkömmliche Präsenzveranstaltungen nicht ersetzen, sondern die Nutzung wie beim Flipped Classroom-Konzept die Qualität der Präsenzveranstaltungen verbessern. Ausgesprochen sinnvolle Beispiele zum Einsatz von MOOCs sind Brückenkurse vor Studienbeginn, wo noch nicht alle Studierende am Studienort sind, oder in der Weiterbildung für Berufstätige. Der Mathe-MOOC Mathematisch Denken findet aktuell jedes Semester statt, und wer mitmachen möchte, kann jeweils Anfang April oder Anfang Oktober einsteigen. Die Kurse werden auch kontinuierlich weiter entwickelt. So werden nun mit Christian Freisleben-Teutscher Improvisationsmethoden eingebunden, um die gegenseitige Interaktion zwischen den Teilnehmenden zu fördern. Schon seit Beginn des Mathe-MOOCs sind auch szenische Darstellungen sehr erfolgreicher Teil der Darstellung, und dienen der Motivation und Auflockerung der manchmal trockenden Mathematik. So tritt Christian Spannagel oft als Dunkler Lord auf, der auf seine besondere Weise die Mathematik erklärt. Wie es schon Jean-Pol Martin formulierte, haben Professoren die Verantwortung neue Wege zu gehen, um für die Gesellschaft auch riskantere Wege einzuschlagen. Auch am KIT werden erfolgreich MOOCs angeboten, und der MOOC gegen Chronisches Aufschieben wurde vor kurzem mit dem Bildungsmedienpreis digita ausgezeichnet. Ein weiterer neuer Zugang ist die Gamification, bei der spielerische Elemente in spielfremde Bereiche eingeführt werden. Dies kann durch die Zuteilung von Punkten, Leveln oder Abzeichen bzw. Badges erfolgen, und dies kann auch in der Hochschullehre eingesetzt werden. Die Wahl eines Kontexts hat sich aber als kritisch herausgestellt: Wenn die Lernenden sich nicht mit dem Spiel identifizieren können, ist kaum ein Erfolg zu erwarten. Nando Stöcklin und Nico Steinbach entwickelten das erfolgreiche System QuesTanja, mit den Schülerinnen und Schüler mit Tablets selbstständig Mathematik erlernen können. Die Forschung richtet sich hier auf die Konzepte des Design-based Research, sie konzentriert sich also darauf die Methode zu entwickeln und iterativ und zyklisch zu verbessern. Auch zum Erlernen des Programmierens haben sich spielerische Konzepte bewährt, ein Beispiel dafür ist die Plattform Scratch und ScratchJr, oder auch Lightbot. Diese Lernprinzipien gehen auf Seymour Papert zurück, der schon mit der Programmiersprache Logo den Grundstein zu erziehungsorientierten Programmiersprachen gelegt hat. Die Logo-Programmiersprache gab es als Schildkrötengrafik auch schon im NDR-Klein-Computer. Eine interessante Frage im Umgang mit neuen Medien in Lehre und Wissenschaft ist die Zitierbarkeit der Angebote. Auf der einen Seite geben sich neue Nutzungsmöglichkeiten durch direkte Links an bestimmte Zeitpunkte, jedoch sind Zitate auf Videos, Audiodateien und Internetseiten noch nicht in der wissenschaftlichen Literatur etabliert. Neue Ansätze zur Vortragsaufzeichnung beim KonScience Podcast werden diskutiert. Ein wichtiger Ansatz ist auch die Vergabe von DOI-Nummern für digitale Medien, wie es auch im Open Science Radio Podcast angesprochen wurde. Letztendlich kann man bei der Erstellung von Videos für den Unterricht nicht zu viel Perfektionismus an den Tag legen, wie es auch schon Aaron Sams formulierte: "Do you need it perfect, or do you need it by Tuesday?" Literatur und Zusatzinformationen C. Spannagel: Digitale Medien in der Schule: in medio virtus, LOG IN, 180, 22-27, 2015. M. Fischer, C. Spannagel: Lernen mit Vorlesungsvideos in der umgedrehten Mathematikvorlesung, In J. Desel, J. M. Haake & C. Spannagel (Hrsg.), DeLFI 2012 – Die 10. e-Learning Fachtagung Informatik der Gesellschaft für Informatik e.V. (S. 225-236). Bonn: Köllen Druck+Verlag, 2012. C. Spannagel, J. Spannagel: Designing In-Class Activities in the Inverted Classroom Model, In J. Handke, N. Kiesler & L. Wiemeyer, L. (Hrsg.) (2013). The Inverted Classroom Model. The 2nd German ICM-Conference (S. 113-120). München: Oldenbourg Verlag, 2013. Flipped Classroom: Die umgedrehte Mathematikvorlesung Video: 10 Irrtümer zum Einsatz digitaler Medien in der Schule Podcast Lob und Tadel 019: Schulmathematik
3/19/2015 • 3 hours, 5 minutes, 1 second
Klothoiden
Klothoiden sind Kurven, die 1794 von Jakob I. Bernoulli zuerst beschrieben wurden. Er hatte die Form eines Metallstreifens untersucht, der von einem Gewicht an einem Ende verbogen wird, während das andere Ende eingespannt ist. Als Resultat des elastischen Verhaltens ist dann die Krümmung proportional zur Kurvenlänge. Viele weitere Eigenschaften von Kurven mit dIeser Eigenschaft wurden dann von Leonhard Euler über den Rahmen des Gedankenexperiments von Bernoulli hinaus bewiesen , wie zum Beispiel die Position der asymptotischen Endpunkte. Im Straßen- und Schienenbau sind Klothoiden ausgezeichnete Übergangsbögen zwischen geraden Strecken und Kurven, da diese Kurve die Krümmung zwischen den beiden Abschnitten gleichmäßig anpasst. Bei der Planung von Schienentrassen wurde diese Eigenschaft vor etwa 100 Jahren schon ausgenutzt. Eine aktuelle wichtige Anwendung ist die Abbildung der Straßen in Fahrassistenzsystemen, wo passend parametrisierte Klothoiden große Vorteile gegenüber Splines besitzen, wie Gotami Heller im Gespräch mit Gudrun Thäter erklärt. Um Klothoiden tatsächlich im Computermodell benutzen zu können, muss eine möglichst adäquate Approximation gesucht und implementiert werden, die die nötige Glattheit in der Kurve erhält. Literatur und Zusatzinformationen M. Bäumker: Rechenverfahren der Ingenieurvermessung http://www.eecs.berkeley.edu/Pubs/TechRpts/2008/EECS-2008-111.pdf: R. Levien: The Euler spiral, a mathematical history, Technical Report University of Carlifornia at Berkeley, UCB/EECS-2008-111, 2008. D. Khosla: Accurate estimation of forward path geometry using two-clothoid road model, Intelligent Vehicle Symposium, 2002. IEEE. Vol. 1. IEEE, 2002.
3/12/2015 • 32 minutes, 4 seconds
Wasserraketen
Gabriel Thäter ist im Rahmen eines BOGY-Praktikums zum Institut gekommen, um einen Eindruck von der Forschungstätigkeit in der angewandten Mathematik zu erhalten. Dazu befasste er sich mit der Simulation, Auslegung und Optimierung von Wasserraketen, die durch Impulserhaltung ihre Beschleunigung erhalten. Sein Interesse an der Raketentechnik entstand durch die Kerbal Space Program Simulation, in der Raketen und Flugzeuge zur Erfüllung verschiedener Aufträge aufgebaut werden. Die Wasserraketen unterscheiden sich unter anderem durch ihre Bauform, dem zur Befüllung zur Verfügung stehenden Volumen, wie viel Wasser darin mit welchem Druck eingefüllt wird und welche Düse verbaut wurde. Der erste Ansatz die Auswirkung der Düse durch den Druckunterschied mit einer laminaren Strömung zu berechnen, führte zu unrealistischen Ergebnissen, was auf Basis der hohen Reynolds-Zahl zu erwarten war. Ein Ansatz über ein turbulentes Strömungsmodell führte zu sinnvollen Werten für die Rückstoßgeschwindigkeit in diskretisierter zeitlicher Abhängigkeit. Die Berechnung der Steighöhe ist besonders durch die Schwerkraft und den Luftwiderstand abhängig. Neben der Berücksichtigung des sich stark verändernden Gewichts, ist die Bestimmung des geeigneten cW-Werts für den Strömungswiderstand eine große Herausforderung. Neben dem Vergleich mit einfachen Körpern wie Zylindern und Kugeln konnte eine Parameteridentifikation aus experimentellen Messwerten den cW-Wert sinnvoll bestimmen. Die praktische Ausführung des Experiments verfolgt man am Besten bei unseren Kollegen bei Methodisch Inkorrekt, die beim 31C3 ihre Wasserrakete live im Sendezentrum zündeten. Natürlich gibt es auch reine Luftraketen, die beeindruckende Höhen erreichen können. Literatur und Zusatzinformationen J. Prusa: Hydrodynamics of a water rocket, SIAM review 42.4: 719-726, 2000. R. Barrio-Perotti, et al: Experimental evaluation of the drag coefficient of water rockets by a simple free-fall test, European Journal of Physics 30.5: 1039, 2009. Bauanleitung Wasserrakete und Bauanleitung Startrampe vom School-Lab zu Raketenantrieben des Deutschen Zentrums für Luft und Raumfahrt. Raumfahrt Würzburg: Bauanleitung Luftraketen
2/26/2015 • 30 minutes, 9 seconds
Strömungslärm
Die Gründer Carlos Falquez, Iris Pantle und Balazs Pritz aus dem Karlsruher Institut für Technologie (KIT), befassen sich mit Verfahren für Strömungslärmprognose und bieten diese Ingenieurbüros und Unternehmen zur Nutzung auf ihrer Cloud-Simulationsplattform NUBERISIM an. Während für viele Strömungen die inkompressiblen Navier-Stokes-Gleichungen ausreichen, kommen hier kompressible Gleichungen zum Einsatz. Dies ändert das Gleichungssystem von einem dominant elliptischen zu einem dominant hyperbolischen System, dem die numerischen Verfahren Rechnung tragen müssen. Der Definition des Simulationsgebiets und den an dessen Rändern festzulegenden Randbedingungen kommt hier eine besondere Bedeutung zu: Beides muss aufeinander abgestimmt sein, jede ins Simulationsgebiet einlaufende Störung besitzt selbst wieder die Größenordnung akustischer Wellen und kann daher vom eigentlichen Simulationsergebnis, dem durch die Strömung erzeugten Schall, schlecht getrennt werden. Daneben ergeben sich weitere Herausforderungen, wie den Einsatz von Verfahren höherer Ordnung, um die Wellendispersion zu bewahren, deren Erhaltung in einer typischen Strömungssimulation normalerweise weder forciert wird noch das Ergebnis signifikant verbessern würde. Schließlich sind solche Verfahren hoch-instationär, so dass sich für realistische Fragestellungen äußerst lange Rechenzeiten ergeben. Dadurch wurden sie in der Vergangenheit nur in der akademischen Forschung untersucht und angewendet. Der Schritt zur kommerziellen Nutzung schien lange undenkbar. Durch moderne Parallelisierungstechniken und Cloud-Systeme jedoch steht plötzlich auch kleineren Unternehmen wie z.B. Ingenieursdienstleitern ausreichend Rechenkapazität zur Verfügung – theoretisch, denn der Zugang hierzu ist immer noch Eingeweihten vorbehalten. Darum haben die Gründer die Idee entwickelt, solche Verfahren nicht nur als Software, sondern als Plattform einschließlich Nutzeroberfläche anzubieten, gerade so wie bei einer konventionellen Software – nur eben über einen Browser anzusteuern. Die Plattform wird voraussichtlich im März zugänglich gemacht. Literatur und Zusatzinformationen Falquez, Pantle und Pritz GbR: Nubersim.de Iris Pantle: Strömungsakustik auf der Basis akustischer Analogie mit LES und URANS, Der Andere Verlag, ISBN 978-3936231823, 2002. Christoph Richter, Łukasz Panek, Norbert Schönwald, Mei Zhuang: Numerische Methoden in der Strömungsakustik – CAA, Vorlesungsskript, TU Berlin, 2005.
2/19/2015 • 1 hour, 24 minutes, 12 seconds
Papierrechner
Joachim Breitner veranstaltete im FabLab Karlsruhe einen Workshop auf dem er unter anderem seinen Taschenrechner auf Papier vorstellte. Den Rechner hat er mit einem speziellen Digitalstift realisiert, dessen genaue Funktionsweise analysiert wurde. Im Workshop ging es speziell um den Tiptoi-Stift, der auf dem Papier ein fast unsichtbares Punktemuster analysiert. Dieses Punktemuster macht das Papier zu digitalem Papier. Hier werden immer im Code 16 Punkte zu einem Block zusammengefasst, von denen die Punkte am linken und oberen Rand zur Erkennung, und die restlichen neun Punkte die eigentliche Information als Zahl mit Prüfbits beinhalten. Dabei entsprechen vier Punkte etwa einem Millimeter und daher sind die Muster, die sich auf den aktiven Bereichen wiederholen, mit dem Auge kaum zu erkennen. Die Funktionen des Stifts werden als GME-Dateien wie auf einen USB-Stick kopiert, und diese konnten in einem längeren Prozess zum Großteil analysiert werden. Zunächst wurden die im freien Ogg Vorbis-Format kodierten Tondateien gefunden, die über eine einfache Substitutions-Chiffre verschleiert wurden. Im Folge der weiteren Analyse wurden die Programme zu den Papiermustern gefunden, und aus diesen konnte die Maschinensprache der Stifte im Großteil bestimmt werden. Das System reagiert auf gescannte Codes, und kann dann verschiedene Aktionen wie das Abspielen von Audio, Variablen setzen, Rechnungen durchführen und Variablen abfragen. Ein Rätsel verblieb, warum die berechneten Werte aus den Papiercodes nicht mit den Kennungen in den Programmen übereinstimmten. Dies konnte man durch Wechsel des Stifts in einen Debug-Modus durch Drücken der Minus-Taste beim Anschalten und anschließend der Plus-Taste nachvollziehen, denn dann liest der Stift die in der Maschinensprache verwendeten Codes auf Chinesisch vor. Zum Verständnis braucht man da nur eine Tabelle der chinesischen Zahlen von 1 bis 10. Aber auch diese Zuordnung konnte inzwischen analysiert und gelöst werden. Damit können nun komplett eigene Seiten mit Papier-Code und zugehörigen GME-Programmen von jedem selbst erstellt werden, dazu wurde das tttool entwickelt, mit dem sowohl die Programme in einer speziellen Sprache, wie auch die zugehörigen Punktemuster erzeugt werden können. Das Erstellen druckbarer Seiten erfordert dann nur noch ein geeignetes Grafikprogramm und passende Hintergrundbilder, wie Joachim Breitner im Gespräch mit Sebastian Ritterbusch darlegt. Literatur und Zusatzinformationen J.Breitner: tttool, Das Schweizer Taschenmesser für den Tiptoi-Bastler Mailingliste für das tttool FabLab Karlsruhe e.V. Entropia e.V. Karlsruhe
2/5/2015 • 1 hour, 18 minutes
Extremereignisse
Sebastian Lerch befasst sich mit der Vorhersage von Extremereignissen, zum Beispiel bei Stürmen und extrem starken Regenfällen und deren Auswirkung auf Fluten oder auch bei Ausnahmeereignissen in der Finanzindustrie. Das Dilemma ist dabei, dass die öffentliche Bewertung oft nur nach eventuell nicht vorhergesagten Katastrophen erfolgt, wie bei dem Erdbeben von L’Aquila, das sogar zur in erster Instanz Verurteilung von Wissenschaftlern führte. Tatsächlich gibt es Fälle erfolgreicher Erdbebenvorhersage, doch leider sind dies nur seltene Ereignisse. Die grundsätzliche Schwierigkeit liegt darin, ein angemessenes Modell für die Risikobewertung zu finden, auch wenn manche Ereignisse nur selten oder in bestimmter Umgebung sogar noch nie aufgetreten sind, und so kaum Daten vorliegen. Die Lösung liegt darin auf probabilistische Vorhersagen zu setzen. Hier wird kein deterministischer fester Wert vorhergesagt, sondern die stochastische Verteilung, in der man die Wahrscheinlichkeit für alle Ereignisse definiert. Verschiedene probabilistische Vorhersagen können mit Hilfe des Continuous Rank Probability Score (CRPS) zu Beobachtungen verglichen und evaluiert werden. Die CRPS ist dabei ein Vertreter der Proper Scoring Rules, da die wahre Verteilung diesen Score tatsächlich maximiert. Eine Herausforderung verbleibt die Frage nach einer geeigneten Vermittlung von probabilistischen Aussagen, wie sie uns in der Regenwahrscheinlichkeit täglich in der Wettervorhersage begegnet, und leider selten richtig verstanden wird. Literatur und Zusatzinformationen S. Lerch: Verification of probabilistic forecasts for rare and extreme events, Diplomarbeit, 2012. S. Lerch, T. L. Thorarinsdottir: Comparison of nonhomogeneous regression models for probabilistic wind speed forecasting, arXiv preprint arXiv:1305.2026, 2013. T. Gneiting, A. E. Raftery: Strictly proper scoring rules, prediction, and estimation, Journal of the American Statistical Association 102.477: 359-378, 2007. T. L. Thorarinsdottir, T. Gneiting, S. Lerch, N. Gissibl, N. Paths and pitfalls in prediction verification, Vortrag Norges Bank, 2013.
1/29/2015 • 26 minutes, 28 seconds
Kaufverhalten
Bei der stochastischen Analyse von Kaufverhalten konzentriert man sich besonders auf die Aspekte des Kaufzeitpunkts, der Produktwahl und der Kaufmenge, um im Wettbewerb einen Vorteil gegenüber der Konkurrenz zu erhalten. Kristina Cindric führt im Gespräch mit Gudrun Thäter aus, wie sie auf Basis großer Datenmengen von anonymisierten Vertragsabschlüssen über ein Jahr Analysen erstellt, Modelle entworfen, trainiert und die entstehenden Prognosen getestet hat. Die auftretenden stochastischen Modelle können sehr vielseitig sein: So kann der Kaufzeitpunkt beispielsweise durch einen stochastischen Prozess mit exponentieller Verteilung modelliert werden, für die Produktwahl kann ein Markow-Prozess die wahrscheinlichsten nächsten Käufe abbilden. Ein zentrales Konzept für die Analyse und das Training von Modellen ist dann die Parameterschätzung, die die tatsächliche Ausgestaltung der Modelle aus den Daten bestimmt. Literatur und Zusatzinformationen L. Fahrmeir, G. Raßer, T. Kneib: Stochastische Prozesse, Institut für Statistik, Ludwig-Maximilians-Universität München, 2010. O. C. Ibe: Markov Processes for Stochastic Modeling, Academic Press, Amsterdam, 2009. L. Yan, R. H. Wolniewicz, R. Dodier: Predicting Customer Behavior in Telecommunications, IEEE Computer Society 19, 50-58, 2004. J. Xia, P. Zeephongsekul, D. Packer: Spatial and temporal modelling of tourist movements using Semi-Markov processes, Tourism Management 32, 844-851, 2010. C. Ebling, Dynamische Aspekte im Kaufverhalten: Die Determinanten von Kaufzeitpunkt, Marken- und Mengenwahl, Inaugural-Dissertation, Johann Wolfgang Goethe-Universität Frankfurt am Main, 2007. Forschungszentrum Informatik (FZI)
1/22/2015 • 29 minutes, 12 seconds
Geometrische Analysis
Geometrie und Analysis sind auf den ersten Blick zwei sehr unterschiedliche Disziplinen in der Mathematik. Wie sie jedoch wunderbar zusammenpassen, erläutert Prof. Dr. Tobias Lamm im Gespräch mit Gudrun Thäter. Ein klassisches Beispiel für die geometrische Analysis ist das Problem der Dido: Wie kann man bei festgelegtem Umfang ein möglichst großes Gebiet abstecken? Es geht also darum den Flächeninhalt unter einer Nebenbedingung zu maximieren, und das ist ein typisches Variationsproblem, das stark von der gegebenen Geometrie abhängt. Ein anderes Beispiel sind Minimalflächen, wie man sie beim Olympiastadion in München und Seifenblasen sehen kann. Überraschenderweise sind Minimalflächen nicht immer eindeutig. Ein Weg dies zu analysieren geht über die Beschreibung des Problems durch Partielle Differentialgleichungen. Oft kann man über das Maximumsprinzip die Eindeutigkeit beweisen: Bei linearen elliptischen partiellen Differentialgleichungen sagt das Prinzip aus, dass das Maximum entweder auf dem Rand angenommen wird oder konstant ist. Betrachtet man nun die Differenz zweier angenommen unterschiedlicher Lösungen zu gleichen Randwerten, so folgt, dass die Differenz wegen der Linearität auch eine Lösung ist, und wegen des Maximumprinzips konstant 0 ist. Damit waren als Resultat dieses Widerspruchbeweises die zwei Lösungen identisch. Bei allgemeineren, u.a. nicht-linearen, Problemstellungen muss dieses Prinzip nicht unbedingt gelten, und so kann es zu mehreren Lösungen zur gleichen Aufgabenstellung kommen. Aktuelle Forschungsbereiche in der geometrischen Analysis sind der mittlere Krümmungsfluss und die geometrische Evolutionsgleichung im Allgemeinen. Ebenso geht es um die Frage, mit welcher minimalen Regularität für die Anfangsdaten, noch eine Lösung rekonstruiert werden kann. Ein weiteres Forschungsgebiet sind die recht jungen Willmore-Flächen. Das Willmore-Funktional ist sehr eng verwandt zur Plattengleichung, d.h. der Approximation des Durchbiegens von Platten. Es hat aber auch Anwendungen in der Zellbiologie in der Modellierung der Form der Zellen. Letztlich kommt es auch in der allgemeinen Relativitätstheorie zum Einsatz. Sehr aktuell ist der Beweis der Poincaré-Vermutung, die 2002 von Perelman bewiesen werden konnte. Literatur und Zusatzinformationen T. Lamm: Geometric Variational Problems, Vorlesung gehalten an der FU Berlin, 2007. H. Koch, T. Lamm: Geometric flows with rough initial data, Asian Journal of Mathematics 16.2: 209-235, 2012. T. Lamm, J. Metzger, F. Schulze: Foliations of asymptotically flat manifolds by surfaces of Willmore type, Mathematische Annalen 350.1: 1-78, 2011.
1/15/2015 • 41 minutes, 35 seconds
Fußgänger
Auch Menschenströme können mathematisch beschrieben und mit geeigneten Modellen auch simuliert werden. Damit können große Veranstaltungen im Vorfeld besser geplant und ausgelegt werden, damit Engpässe oder sogar Katastrophen wie bei der Love-Parade 2010 möglichst verhindert werden. Henrieke Benner hat dazu die Parameter für die Simulation von Fußgängern im Gegenstrom kalibriert und spricht mit Gudrun Thäter über die Verfahren, Herausforderungen und Erkenntnisse.Mathematisch betrachtet sie die Fußgänger in einem mikroskopischen Modell, wo jede Person als eigenes Objekt simuliert wird. Entsprechend der Situation wirken nun virtuelle Kräfte auf diese Objekte, so verhindert eine virtuelle Abstoßungskraft zwischen zwei Personen, dass diese zusammenstoßen. Die betrachtete Simulation wird durch eine Vielzahl von Parametern konfiguriert, die mit realen Experimenten kalibriert werden müssen. Dies kann durch eine Optimierung der Parameter gelöst werden, die die Simulation den Experimenten möglichst weitgehend annähert. Literatur und Zusatzinformationen H.-J. Bungartz, S. Zimmer, M. Buchholz, D. Pflüger: Modellbildung und Simulation: Eine anwendungsorientierte Einführung, Springer Verlag, 2013. U. Chattaraj, A. Seyfried, P. Chakroborty: Comparison of pedestrian fundamental diagram across cultures, Advances in complex systems, 12(03), 393-405, 2009. A. Johansson, D. Helbing, P. K. Shukla: Specification of the social force pedestrian model by evolutionary adjustment to video tracking data, Advances in complex systems, 10(supp02), 271-288, 2007. D. Helbing, P. Mukerji: Crowd disasters as systemic failures: analysis of the Love Parade disaster, EPJ Data Science 1:7, 2012. PTV Viswalk Software
1/8/2015 • 25 minutes, 44 seconds
Teichmüllerkurven
Jonathan Zachhuber war zum 12. Weihnachtsworkshop zur Geometrie und Zahlentheorie zurück an seine Alma Mater nach Karlsruhe gekommen und sprach mit Gudrun Thäter über Teichmüllerkurven. Kurven sind zunächst sehr elementare ein-dimensionale mathematische Gebilde, die über den komplexen Zahlen gleich viel reichhaltiger erscheinen, da sie im Sinne der Funktionentheorie als Riemannsche Fläche verstanden werden können und manchmal faszinierende topologische Eigenschaften besitzen. Ein wichtiges Konzept ist dabei das Verkleben von Flächen. Aus einem Rechteck kann man durch Verkleben der gegenüberliegenden Seiten zu einem Torus gelangen (Animation von Kieff zum Verkleben, veröffentlicht als Public Domain): Polynome in mehreren Variablen bieten eine interessante Art Kurven als Nullstellenmengen zu beschreiben: Die Nullstellen-Menge des Polynoms ergibt über den reellen Zahlen den Einheitskreis. Durch Ändern von Koeffizienten kann man die Kurve verformen, und so ist die Nullstellenmenge von eine Ellipse. Über den komplexen Zahlen können diese einfachen Kurven dann aber auch als Mannigfaltigkeiten interpretiert werden, die über Karten und Atlanten beschrieben werden können. Das ist so wie bei einer Straßenkarte, mit der wir uns lokal gut orientieren können. Im Umland oder anderen Städten braucht man weitere Karten, und alle Karten zusammen ergeben bei vollständiger Abdeckung den Straßenatlas. Auch wenn die entstehenden abstrakten Beschreibungen nicht immer anschaulich sind, so erleichtern die komplexen Zahlen den Umgang mit Polynomen in einem ganz wichtigen Punkt: Der Fundamentalsatz der Algebra besagt, dass der Grad des Polynoms gleich der Anzahl der Nullstellen in ihrer Vielfachheit ist. Also hat nun jedes nichtkonstante Polynom mindestens eine Nullstelle, und über den Grad des Polynoms wissen wir, wie viele Punkte sich in der Nullstellenmenge bewegen können, wenn wir an den Koeffizienten Veränderungen vornehmen. Eine gute Methode die entstehenden Flächen zu charakterisieren ist die Bestimmung möglicher geschlossener Kurven, und so gibt es beim Torus beispielsweise zwei unterschiedliche geschlossene Kurven. Die so enstehende Fundamentalgruppe bleibt unter einfachen Deformationen der Flächen erhalten, und ist daher eine Invariante, die hilft die Fläche topologisch zu beschreiben. Eine weitere wichtige topologische Invariante ist das Geschlecht der Fläche. Die Teichmüllerkurven entstehen nun z.B. durch das Verändern von einem Koeffizienten in den Polynomen, die uns durch Nullstellenmengen Kurven beschreiben- sie sind sozusagen Kurven von Kurven. Die entstehenden Strukturen kann man als Modulraum beschreiben, und so diesen Konstruktionen einen Parameterraum mit geometrischer Struktur zuordnen. Speziell entstehen Punkte auf Teichmüllerkurven gerade beim Verkleben von gegenüberliegenden parallelen Kanten eines Polygons; durch Scherung erhält man eine Familie von Kurven, die in seltenen Fällen selbst eine Kurve ist. Ein Beispiel ist das Rechteck, das durch Verkleben zu einem Torus wird, aber durch Scherung um ganz spezielle Faktoren zu einem ganz anderen Ergebnis führen kann. Die durch Verklebung entstandenen Flächen kann man als Translationsflächen in den Griff bekommen. Hier liefert die Translationssymmetrie die Methode um äquivalente Punkte zu identifizieren. Für die weitere Analyse werden dann auch Differentialformen eingesetzt. Translationen sind aber nur ein Beispiel für mögliche Symmetrien, denn auch Rotationen können Symmetrien erzeugen. Da die Multiplikation in den komplexen Zahlen auch als Drehstreckung verstanden werden kann, sind hier Rotationen als komplexe Isomorphismen ganz natürlich, und das findet man auch in den Einheitswurzeln wieder. Literatur und Zusatzinformationen A. Zorich: Flat Surfaces, Frontiers in Number Theory, Physics and Geometry, On Random Matrices, Zeta Functions, and Dynamical Systems, Ed. by P. Cartier, B. Julia, P. Moussa, and P. Vanhove. Vol. 1. Berlin: pp. 439–586, Springer-Verlag, 2006. M. Möller: Teichmüller Curves, Mainly from the Viewpoint of Algebraic Geometry, IAS/Park City Mathematics Series, 2011. J. Zachhuber: Avoidance of by Teichmüller Curves in a Stratum of , Diplomarbeit an der Fakultät für Mathematik am Karlsruher Institut für Technologie (KIT), 2013. C. McMullen: Billiards and Teichmüller curves on Hilbert modular surfaces, Journal of the AMS 16.4, pp. 857–885, 2003. C. McMullen: Prym varieties and Teichmüller curves, Duke Math. J. 133.3, pp. 569–590, 2006. C. McMullen: Dynamics of SL(2,R) over moduli space in genus two, Ann. of Math. (2) 165, no. 2, 397–456, 2007. Weitere Paper von C. McMullen, u.a. The mathematical work of Maryam Mirzakhani Podcast: Modellansatz 040: Topologie mit Prof. Dr. Wolfgang Lück
12/25/2014 • 48 minutes, 6 seconds
Risikobewertung
Prof. Dr. Wolfgang Härdle war im Rahmen des Workshop zu High Dimensional, High Frequency and Spatial Data in Karlsruhe und sprach mit Gudrun Thäter über sein Forschungsgebiet. Er befasst sich an der Humboldt-Universität zu Berlin mit der Bewertung von Risiken und ist am Lehrstuhl der Nachfolger von Ladislaw Bodjevich, der unter anderem für seine Arbeiten zum Gesetz der kleinen Zahlen berühmt geworden ist: Es sagt aus, dass auch wenn alle 37 Roulette-Zahlen gleich wahrscheinlich sind, nach 37 Würfen im Durchschnitt nur etwa 2/3 der Zahlen aufgetreten sind. Damit steht es nur scheinbar in gewissem Kontrast zum Gesetz der großen Zahlen, das bestimmt, wie die Auftrittshäufigkeit sich für viele Würfe der Gleichverteilung annähert. Das Flanken-Maß ist eine Eigenschaft von Profit and Loss (PnL, GuV)-Funktionen oder Zufallsvariablen, die die Dicke von Flanken oder Entferntheit von seltenen Ereignissen modelliert. Schon Ladislaw Bodjevich hat erkannt, dass das die Bewertung von Extremrisiken und wenige vorhandene Daten einen Widerspruch darstellt. Die Normalverteilung ist die Grenzverteilung gewichteter Zufallsgrößen, wenn der Grenzwert existiert, also bei vielen Ereignissen das Gesetz der großen Zahlen zum Einsatz kommen kann. Bei wenigen Ereignissen gelangt man zur Poisson-Verteilung. Obwohl sie theoretisch viele Prozesse gut beschreiben sollte, funktioniert die Normalverteilung in der Realität aus vielen Gründen oft schlechter als erwartet: Sich verändernde Prozesse können Mischverhältnisse von an sich normal-verteilten Bestandteilen verändern, ebenso kann sich die Volatilität bzw. die Streuung um den Erwartungswert über die Zeit verändern. Es kann aber auch eine vollkommene andere Verteilung vorliegen wie zum Beispiel die Extremwertverteilung, Weibull-Verteilung mit algebraisch abfallenden Tails oder der Pareto-Verteilung. Leider ist die stochastische Konvergenz von Extermwertverteilungen sehr schlecht, und erschwert so Vorhersagen und Bewertungen. So wurden strukturierte Finanzprodukte mit multivariaten Modellen und einer Normalverteilungsannahme viel zu vereinfacht modelliert. So waren CDO-Produkte daher vor der Finanzkrise ab 2007 viel zu billig und hatten einen beträchtlichen Anteil an der Krise. Die Risikobewertung ist aber nicht nur für die Bewertung von Katastrophen-Bonds für Versicherungen gegen Erdbeben wichtig, sondern auch für die Analyse von EEG von Kindern. Sie hilft aber auch den Risikofaktor Mensch im Sinne der Behaviour Finance zu verstehen. Literatur und Zusatzinformationen J. Franke, W. Härdle, C. Hafner: Statistics of Financial Markets, Springer-Verlag Berlin Heidelberg, 2004. J. Hull: Risk Management and Financial Institutions, John Wiley & Sons, 2012. J. Leider: A Quantile Regression Study of Climate Change in Chicago, 1960-2010, SIAM Undergraduate Research Online (SIURO) Vol. 5, 2012. Publikationen, Vorträge und Papers von Wolfgang Härdle
12/18/2014 • 26 minutes, 41 seconds
Topologie
Prof. Dr. Wolfgang Lück befasst sich am HIM (Hausdorff Research Institute for Mathematics) und dem Mathematisches Institut der Universität Bonn mit der Topologie von Mannigfaltigkeiten und Flächen wie auf einem Torus oder einer Kugel. Speziell für Kugeln und Kreise gibt es die Sphären-Notation , die die Oberflächen des Objekts im beschreiben. Damit ist eine Kreislinie und die Kugeloberfläche.Auch wenn Flächen lokal ähnliche Eigenschaften haben, kann die Situation global ganz anders aussehen: So unterscheidet sich die Vorstellung einer flachen Erde lokal nicht von der Kugelform der Erde, global sieht es aber ganz anders aus. Ebenso kennen wir auch jetzt noch nicht sicher die Topologie des Weltalls. Dazu beschränkt sich unser Vorstellungsraum oft auf drei Dimensionen, obwohl schon die relativistische Physik uns lehrt, unsere Umgebung als Raumzeit in 4 Dimensionen zu verstehen.Bei der Klassifikationen von Flächen auf unterschiedlichen Körpern verwendet man Homöomorphismen um ähnliche Flächen einander zuzuordnen, und letztlich unterscheiden sich die Flächenklassen dann nur noch durch die Anzahl der Löcher bzw. dem Geschlecht, was dann auch die Eigenschaften der Flächen bestimmt. Ein Weg das Geschlecht der Fläche zu bestimmen ist die Triangularisierung, eine andere Möglichkeit bietet die Analyse des Spektrums eines Operators wie dem Laplace-Operators, das auch in der Topologie von Graphen zum Einsatz kommen kann.Ein Beispiel für die Anwendung des Laplace-Operators ist die Wärmeleitungsgleichung, die zwar die lokalen Eigenschaften des Wärmetransports beschreibt, jedoch das Wärmegleichgewicht nach unendlicher Zeit die globalen Zusammenhänge beinhaltet. Ein wichtiger Begriff ist hier der Integralkern, der hilft Lösungen durch Integraloperatoren darzustellen.Ein wichtiger mathematischer Begriff ist dabei der -Funktionenraum, der über die Fourier-Transformation auf bestimmten Gebieten mit dem -Folgenraum identifiziert werden kann, und man dadurch auf Lösungen von partiellen Differentialgleichungen schließen kann.Besonderes Interesse liegt in der Topologie auf Invarianten, wie der Fundamentalgruppe, mit der man auch den Fundamentalsatz der Algebra beweisen kann. Ein weiteres Beispiel für eine Invariante ist die Windungszahl, die gerade in der Funktionentheorie zum Residuensatz und effizienten Integralberechnungsmethoden führt.Dabei entstehen oft nicht kommutative Verknüpfungen, wie man es zum Beispiel von der Matrizenmultiplikation oder den Symmetriegruppen kennen kann.Ein elementarer Einstieg in die Topologie ist auch über die Knotentheorie möglich, wo ebenso Knoten-Invarianten gefunden werden können, und über zum Beispiel Jones-Polynome klassifiziert werden können.Im weiteren Gespräch geht es um Themen wie die unterschiedlichen Bilder der Mathematik in Gesellschaft, Schule und Universität, die Bedeutung der Mathematik für Gesellschaft, die Ausbildung für Industrie und das Lehramt, und über den Stand und Möglichkeiten der Gleichberechtigung und Förderung von Frauen in der Wissenschaft.Literatur und Zusatzinformationen W. Lück: Was und wie zählt man im Alltag und in der modernen Mathematik? Vortrag im Kolloquium zur Didaktik der Mathematik, Karlsruhe, Dezember 2014. W. Lück: Algebraische Topologie, Homologie und Mannnigfaltigkeiten, Vieweg Spektrum, 2005. W. Lück: Transformation Groups and Algebraic K-Theory, Lecture Notes in Mathematics, 1989. Publikationen von Wolgang Lück Wolfgang Lück in der Wikipedia
12/11/2014 • 1 hour, 16 minutes, 8 seconds
Systembiologie
Auf den Vorschlag von Henning Krause verbreiteten viele Forschende unter dem Hashtag #1TweetForschung ihr Forschungsthema in Kurzform. So auch Lorenz Adlung, der in der Abteilung Systembiologie der Signaltransduktion am Deutschen Krebsforschungszentrum in Heidelberg die mathematische Modellbildung für biologische Prozesse erforscht. Bei der Anwendung einer Chemotherapie leiden Krebspatienten oft unter Blutarmut. Hier kann neben der Bluttransfusion das Hormon Erythropoetin, kurz EPO, helfen, da es die körpereigene Erzeugung von roten Blutkörperchen (Erythrozyten) unterstützt. Leider ist EPO als Dopingmittel bekannt, und um dem Doping noch deutlicher Einhalt zu gebieten, wurde im November 2014 in Deutschland ein Entwurf eines Anti-Doping-Gesetz vorgelegt. Trotz gängigem Einsatz und erprobter Wirkung von EPO ist die genaue Wirkung von EPO auf Krebszellen nicht bekannt. Daher verfolgt Lorenz Adlung den Ansatz der Systembiologie, um im Zusammenwirken von Modellbildung und Mathematik, Biologie und Simulationen sowohl qualitativ und quantitativ analysieren und bewerten zu können. Vereinfacht sind rote Blutkörperchen kleine Sauerstoff-transportierende Säckchen aus Hämoglobin, die auch die rote Farbe des Bluts verursachen. Sie stammen ursprünglich aus Stammzellen, aus denen sich im Differenzierungs-Prozess Vorläuferzellen bzw. Progenitorzellen bilden, die wiederum durch weitere Spezialisierung zu roten Blutkörperchen werden. Da es nur wenige Stammzellen gibt, aus denen eine unglaubliche große Anzahl von Trillionen von Blutkörperchen werden müssen, gibt es verschiedene Teilungs- bzw. Proliferationsprozesse. Das Ganze ergibt einen sehr komplexen Prozess, dessen Verständnis zu neuen Methoden zur Vermehrung von roten Blutkörperchen führen können. Den durch Differenzierung und Proliferation gekennzeichnete Prozess kann man mathematisch beschreiben. Eine zentrale Ansichtsweise in der Systembiologie der Signaltransduktion ist, Zellen als informationsverarbeitende Objekte zu verstehen, die zum Beispiel auf die Information einer höheren EPO-Konzentration in der Umgebung reagieren. Von diesem Ansatz werden durch Messungen Modelle und Parameter bestimmt, die das Verhalten angemessen beschreiben können. Diese Modelle werden in Einklang mit bekannten Prozessen auf molekularer Ebene gebracht, um mehr über die Abläufe zu lernen. Die erforderlichen quantitativen Messungen basieren sowohl auf manuellem Abzählen unter dem Mikroskop, als auch der Durchflusszytometrie, bei der durch Streuung von Laserlicht an Zellen durch Verwendung von Markern sogar Aussagen über die Zelloberflächen getroffen werden können. Zusätzlich kann mit der Massenspektrometrie auch das Innere von Zellen ausgemessen werden. In diesem Anwendungsfall werden die mathematischen Modelle in der Regel durch gekoppelte gewöhnliche Differenzialgleichungen beschrieben, die Zell- oder Proteinkonzentrationen über die Zeit beschreiben. Die Differenzialgleichungen und deren Parameter werden dabei sowohl mit Messungen kalibriert, als auch mit den Kenntnissen in der Molekularbiologie in Einklang gebracht. Die Anzahl der Parameter ist aber oft zu hoch, um naiv auf geeignete zu den Messungen passende Werte zu gelangen. Daher wird unter anderem das Latin Hypercube Sampling verwendet, um schnell nahe sinnvollen Parameterwerten zu gelangen, die durch gradienten-basierte Optimierungsverfahren verbessert werden können. Die Basis für diese Art von Optimierungsverfahren ist das Newton-Verfahren, mit dem man Nullstellen von Funktionen finden kann. Ein wichtiger Aspekt im Umgang mit Messergebnissen ist die Berücksichtigung von Messfehlern, die auch vom Wert der Messung abhängig verstanden werden muss- denn nahe der Messgenauigkeit oder der Sättigung können die relativen Fehler extrem groß werden. Die Bestimmung der Modellparameter ist schließlich auch ein Parameteridentifikationsproblem, wo insbesondere durch eine Sensitivitätsanalyse auch der Einfluss der geschätzten Parameter bestimmt werden kann. Sowohl die Parameter als auch die Sensitivitäten werden mit den biologischen Prozessen analysiert, ob die Ergebnisse stimmig sind, oder vielleicht auf neue Zusammenhänge gedeuten werden können. Hier ist die Hauptkomponentenanalyse ein wichtiges Werkzeug, um zentrale beeinflussende Faktoren erfassen zu können. Ein wichtiges Ziel der Modellbildung ist die numerische Simulation von Vorgängen, die als digitale Experimente sich zu einem eigenen Bereich der experimentellen Forschung entwickelt haben. Darüber hinaus ermöglicht das digitale Modell auch die optimale Planung von Experimenten, um bestimmte Fragestellungen möglichst gut untersuchen zu können. Die Umsetzung auf dem Computer erfolgt unter anderem mit Matlab, R (The R Project for Statistical Computing) und mit der spezialisierten und freien Software D2D - Data to Dynamics.Literatur und Zusatzinformationen M. Boehm, L. Adlung, M. Schilling, S. Roth, U. Klingmüller, W. Lehmann: Identification of Isoform-Specific Dynamics in Phosphorylation-Dependent STAT5 Dimerization by Quantitative Mass Spectrometry and Mathematical Modeling, Journal of Proteome Research, American Chemical Society, 2014. (PubMed) Studium der Systembiologie D2D-Software L. Adlung, C. Hopp, A. Köthe, N. Schnellbächer, O. Staufer: Tutorium Mathe für Biologen, Springer Spektrum, 2014. Science: NextGen Voices zur globalen wissenschaftlichen Zusammenarbeit- mit Lorenz Adlung Lorenz Adlung auf Twitter L. Adlung, et. al: Synbio meets Poetry, CreateSpace, 2013. Kollaborationspartner: U.a. Thomas Höfer, Heidelberg, Jens Timmer, Freiburg i. B., Fabian Theis, München Resonator-Podcast 015: DKFZ-Forscher Christof von Kalle Resonator-Podcast 014: Das DKFZ in Heidelberg Omega Tau-Podcast 069: Grundlagen der Zellbiologie Omega Tau-Podcast 072: Forschung in der Zellbiologie Konscience-Podcast 024, Kapitel 5: Das Hochlandgen aus "Wie kam das bloß durch die Ethikkommission?"
11/27/2014 • 1 hour, 33 minutes, 1 second
Graphpartitionierung
Ein Graph ist eine Menge von Knoten und Kanten zwischen diesen Knoten. Man unterscheidet zwischen gerichteten Graphen, wo Einbahnstraßen darstellbar sind, oder den ungerichteten Graphen, wo Beziehungen zwischen zwei Knoten immer beidseitig sind. Beispiele sind die graphische Darstellung von Beziehungen in einem sozialen Netz oder Straßennetze, für deren Verarbeitung das Forschungsgebiet von Christian Schulz immer bedeutender wird, wie wir in seinem Gespräch mit Gudrun Thäter erfahren.Eine wichtige Aufgabe im Umgang mit Graphen ist die Aufteilung (oder fachsprachlich Partitionierung), von Graphen in kleinere Teile. Dies kommt z.B. der Parallelisierung der Arbeit auf den Graphen zugute, und ist unumgänglich, wenn Graphen eine Größe haben, die nicht mehr von einem Prozessor bearbeitet werden kann. Ein wichtiges Merkmal ist hier, die Aufteilung möglichst gleichmäßig vorzunehmen, damit die Aufteilung von z.B. Rechenzeit gleichmäßig erfolgt, und gleichzeitig wenig Kommunikation zwischen der Bearbeitung der Einzelteile erforderlich ist. Es geht um eine möglichst gute Skalierbarkeit der Graphverarbeitung.Ein wichtiges Anwendungsproblem ist die Routenplanung, bei der zwischen zwei Punkten auf der Erde die zeitlich kürzeste Verbindung berechnet werden soll. In der Informatik ist der Dijkstra-Algorithmus der passende Basis-Algorithmus für diese Aufgabe, doch er ist für große Graphen in seiner ursprünglichen Form sehr ineffizient. In Kombination mit einer passenden Graphpartitionierung und Algorithmen kann man das Verfahren deutlich effizienter ausführen und beschleunigen.Ein klassisches Verfahren zur Aufteilung ist das Mehrschichtverfahren über die Laplace-Matrix, wo ausgenutzt wird, dass zwischen den Eigenwerten der Matrix und der Schnittstruktur des Graphen enge Zusammenhänge bestehen. Dieses Verfahren wurde zum Mehrschichtverfahren für Graphen weiterentwickelt, bei dem in einer sogenannten Kontraktion benachbarte Knoten und parallele Kanten jeweils zusammengeführt werden, und der Graph zu einem kleinen und kantengewichteten Graph vereinfacht wird. Schließlich wird das Problem auf einem vereinfachten, groben Gitter gelöst, und dann jeweils mit lokalen Suchen auf feinere Graphen erweitert. Für die Kontraktion werden Heuristiken und Kantenbewertungsfunktionen verwendet.Ein weiterer Ansatz sind auch evolutionäre Algorithmen. Dabei wurde eine allgemeinere Umgebung geschaffen, die auf eine weite Klasse von Optimierungsproblemen angewendet werden kann.Die Graphentheorie ist natürlich auch Teil der diskreten Mathematik, und besonders berühmt ist auch das Traveling Salesperson Problem. Gleichzeitig ist das Thema aber auch in der Theoretischen Informatik, im Algorithm Engineering und in der Software-Entwicklung beheimatet.Literatur und Zusatzinformationen C. Schulz: High Quality Graph Partitioning, PhD thesis. Karlsruhe Institute of Technology, 2013. P. Sanders, C. Schulz: Distributed Evolutionary Graph Partitioning, Proceedings of the 12th Workshop on Algorithm Engineering and Experimentation (ALENEX'12), pages 16--19, 2012. P. Sanders, C. Schulz: High Quality Graph Partitioning, Proceedings of the 10th DIMACS Implementation Challenge Workshop: Graph Partitioning and Graph Clustering, pages 1--17, AMS, 2013. P. Sanders, C. Schulz: Think Locally, Act Globally: Highly Balanced Graph Partitioning, proceedings of the 12th International Symposium on Experimental Algorithms (SEA'13), volume 7933 of LNCS, pages 164--175, 2013. R. Glantz, H. Meyerhenke, C. Schulz: Tree-based Coarsening and Partitioning of Complex Networks, Technical Report, Karlsruhe Institute of Technology, 2014. KaHIP Homepage KaHIP auf Twitter Christian Schulz auf Twitter Podcast: Death of a traveling salesman
11/20/2014 • 35 minutes, 51 seconds
Metallschaum
In den Materialwissenschaften ist man immer auf der Suche nach neuen Werkstoffen und Materialien. Sehr vielversprechend sind dabei Metallschäume, dessen Wärmeleitungseigenschaften Anastasia August am Institut für angewandte Materialien erforscht und über die sie uns im Gespräch mit Sebastian Ritterbusch erzählt.Zu den besonderen Eigenschaften von Metallschäumen gehören unter anderem die große Oberfläche bzw. Grenzfläche im Verhältnis zum Volumen wie bei Lungenbläschen und die hohe Wärmeleitungsfähigkeit im Verhältnis zum Gewicht. Gleichzeitig können Metallschäume mit Luft oder anderen Materialien wie Paraffin gefüllt werden, um besondere Eigenschaften zu erhalten. Neben Bierschaum ist auch der Badeschaum eine Möglichkeit Schäume mit ihrem außergewöhnlichem Verhalten kennenzulernen. Das geschäumte Materialgemisch erhält dabei aber typischerweise nicht durchschnittliche Materialeigenschaften, sondern es können Eigenschaften der einzelnen Materialien teilweise kombiniert werden; z.B. erhält ein Metall-Paraffinschaum eine recht hohe Wärmeleitfähigkeit vom Metall gepaart mit einer hohen Wärmekapazität und vor Allem mit einem günstigen Schmelzpunkt (45-80°C) vom Paraffin und ist damit ein sehr effizienter Latentwärmespeicher.In der Natur finden sich Schaumstrukturen zum Beispiel in Knochen, die bei hoher Stabilität ein deutlich geringeres Gewicht als ein massives Material haben. Aber auch für Knochenimplantate sind Metallschäume aus Titan durch die hohe Stabilität bei geringem Gewicht und guter Verträglichkeit sehr interessant.Problematisch ist für den Einsatz von Metallschäumen, dass noch viele quantitative Messgrößen fehlen, die Herstellung noch recht teuer ist, und insbesondere nur in kleinen Größen produziert werden kann. Als Unterscheidungsmerkmal hat sich neben der Unterscheidung in offen oder geschlossen porigen Schaum die ppi-Zahl als Maß für die Porendichte etabliert, dabei zählt man die Poren pro Inch (Zoll, entspricht 2,54 cm). Dazu erfasst man auch die mittlere Porengröße (Durchmesser), ihre Standardabweichung, die Porosität, die mittlere Stegdicke und deren Form. Weiterhin können sich Größen in verschiedenen Richtungen im Material unterscheiden, und dadurch merklich deren Eigenschaften verändern.Für die Herstellung von Metallschäumen gibt es unterschiedliche Verfahren: Zwei typische Vertreter sind das Pressen mit dem anschließenden Schmelzen von gemischtem Metall- und Metallhybridpulvern für geschlossen porige feste Schäume oder Gießverfahren, wo der Metallschaum für offen porige Materialien durch keramische Negativabbildungen von Polyurethan-Schäumen nachempfunden wird.Schon früh waren Schäume als möglichst dichte Packungen ein Forschungsfeld in der Mathematik. Im Jahr 1994 haben Weaire-Phelan eine noch optimalere regelmäßige Schaumstruktur veröffentlicht, die in der Architektur des zu den olympischen Sommerspielen 2008 in Peking errichteten Nationalen Schwimmzentrums verewigt wurde. Das ebenfalls zu den Sommerspielen errichtete Vogelnest hat im Gegenteil eine zufälligere Struktur. Lange hatte man keine verlässlichen Aussagen über die Wärmeleitfähigkeit von Metallschäumen. Bei einer Leitfähigkeit von etwa 200 W/(mK) von Aluminium erreicht ein Metallschaum Leitfähigkeiten zwischen 5-13 W/(mK) während man bei Luft von einer Leitfähigkeit von etwa 0.025 W/(mK) ausgehen kann. Außerdem haben Metallschäume einen hohen Oberflächenanteil, dies bezeichnet die vorhandene Oberfläche im Verhältnis zum Volumen. Während ein voller Metallwürfel ein Verhältnis von etwa hat, kann ein Schaum ein Verhältnis von bis zu erreichen.Eine interessante Fragestellung ist auch, ab welcher Porengröße die natürliche Konvektion in mit Luft gefüllten Metallschäumen eine Rolle gegenüber der Wärmeleitung spielt. Die relevante Größe ist hier die Rayleigh-Zahl, die für Metallschäume typischer Porengrößen ergibt, dass die natürliche Konvektion zu vernachlässigen ist.Für die Simulation wird der komplette Raum des Metallschaums diskretisiert, und es gibt eine Funktion, die als Indikatorfunktion anzeigt, ob an diesem Punkt Metall oder Luft vorliegt. Hier können sowohl aus an der Hochschule Pforzheim durchgeführten Schnitten rekonstruierte Schaumstrukturen abgebildet werden, aber auch künstlich mit Algorithmen erzeugte Schäume für die Simulation abgebildet werden. Bei der künstlichen Erzeugung von Schäumen ist die Voronoi-Zerlegung ein wichtiger Algorithmus zur Bestimmung der Poren.Den eigentlichen Wärmetransport im Metallschaum wird durch die Wärmeleitungsgleichung modelliert. Sie leitet sich aus dem Energieerhaltungssatz und dem Fourierschen Satz ab. Dieses Modell stimmt aber in dieser Form nur für homogene Materialien mit konstantem Koeffizienten . Daher müssen die Sprünge in Materialeigenschaften (etwas im Übergang Luft-Metall) zusätzlich berücksichtigt werden. Dies kann über die Phasenfeldmethode realisiert werden, wo eine künstliche, diffuse Übergangsschicht zwischen den Materialien eingeführt wird. Dies ist im Prinzip eine Art von Mollifikation, wo ein Sprung durch eine glatte monotone Funktion angenähert wird. Wenn dies zusätzlich mit der Berücksichtung der anisotropen Eigenschaften der Übergangsschicht ergänzt wird, erhält man eine Basis für die in PACE 3D implementierte Simulationsmethode, die mit verschiedenen analytischen Ergebnissen und kommerziellen Softwareprodukten erfolgreich validiert werden konnte.Die Phasenfeldmethode und die Software Pace3D stammt ursprünglich aus der Simulation von Erstarrungs- und Schmelzvorgängen auf der Mikrometerskala. Metalle erstarren in Form von sogenannten Dendriten. Das sind Kristalle, die eine gewisse Ähnlichkeit mit Schneeflocken aufweisen.Eine interessante Anwendung von Metallschäumen bietet das mutige Silent Power PC Projekt, in dem ein Metallschaum den einen Rechner effizient kühlen soll. Aus den bisherigen Erkenntnissen der Arbeitsgruppe ist anzunehmen, dass ein Großteil der Kühlleistung in einem solchen System auf der Wärmeleitung liegt - für einen Einfluss der natürlichen Konvektion scheint die Porengröße zu klein zu sein.Die Faszination für Wissenschaft inspiriert Anastasia August nicht nur in der Forschung, sondern sie demonstriert sie auch auf Science Slams und im FameLab. Sie hielt dort Vorträge über ihr Forschungsgebiet und auch über das sehr unterschätzte Thema der Stetigkeit und die Anwendung auf Temperaturen auf der Erdkugel. Mit dem Vortrag auf dem Science Slam Vorentscheid in Esslingen zu Metallschäumen hat sie sich für die Meisterschaft am 6. Dezember qualifiziert.Literatur und Zusatzinformationen A. August, B. Nestler, F. Wendler, M. Selzer, A. Kneer, E. Martens: Efficiency Study of Metal Foams for Heat Storage and Heat Exchange, CELLMAT 2010 Dresden Conference Proceedings, 148-151, 2010, Fraunhofer IFAM Dresden, 2010. A. August, B. Nestler, A. Kneer, F. Wendler, M. Rölle, M. Selzer: Offenporige metallische Schäume, Werkstoffe in der Fertigung, Ausgabe 6/ November 2011, S. 45-46, 2011. M. Rölle, A. August, M. Selzer, B. Nestler: Generierung offenporiger metallischer Schaumstrukturen zur Simulation der Wärmeübertragungseigenschaften, Forschung aktuell 2011, 21-23 Hochschule Karlsruhe Technik und Wirtschaft, S. 21-23, 2011. A. Vondrous, B. Nestler, A. August, E. Wesner, A. Choudhury, J. Hötzer: Metallic foam structures, dendrites and implementation optimizations for phase-field modelling, High Performance Computing in Science and Engineering, Transactions of the High Performance Computing Center, Stuttgart (HLRS), Pages 595-605, 2011. E. Wesner, A. August, B. Nestler: Metallische Schneeflocken, horizonte, Nr. 43, März 2014. J. Ettrich, A. Choudhury, O. Tschukin, E. Schoof, A. August, B. Nestler: Modelling of Transient Heat Conduction with Diffuse Interface Methods, Modelling and Simulation in Materials Science and Engineering, 2014. J. Ettrich, A. August, B. Nestler: Open Cell Metal Foams: Measurement and Numerical Modelling of Fluid Flow and Heat Transfer, CELLMAT 2014 Dresden Conference Proceedings, 2014. J. Ettrich, A. August, M. Rölle, B. Nestler: Digital Representation of Complex Cellular Sructures for Numerical Simulations, CELLMAT 2014 Dresden Conference Proceedings, 2014. Forschungsgruppen am KIT-ZBS Institute of Materials and Processes an der Hochschule Karlsruhe - Technik und Wirtschaft Das Institut für Werkstoffe und Werkstofftechnologien (IWWT) an der Hochschule Pforzheim
11/13/2014 • 1 hour, 39 minutes, 52 seconds
Analysis und die Abschnittskontrolle
Im Herbst beginnen die neuen Studiengänge der Mathematik am KIT und neben den Vorlesungen zur Linearen Algebra, Stochastik oder Numerik gehört die Analysis zu den mathematischen Vorlesungen, mit dem das Studium der Mathematik in den ersten Semestern beginnt. Dazu spricht Sebastian Ritterbusch mit Johannes Eilinghoff, der im letzten Jahr den Übungsbetrieb der Analysis-Vorlesungen mit großem Anklang organisiert hat.Die Analysis befasst sich besonders mit der Mathematik um Funktionen auf reellen Zahlen, welche Eigenschaften sie haben, und wie man diese differenzieren oder integrieren kann. Vieles zur Geschichte der Analysis findet man besonders in den Büchern von Prof. Dr. Michael von Renteln, der unter anderem über die Geschichte der Analysis im 18. Jahrhundert von Euler bis Laplace, die Geschichte der Analysis im 19. Jahrhundert von Cauchy bis Cantor, über Aspekte zur Geschichte der Analysis im 20. Jahrhundert von Hilbert bis J. v. Neumann und über die Die Mathematiker an der Technischen Hochschule Karlsruhe 1825-1945 geschrieben hat.Grundlage für die Mathematik in der Analysis sind die Zahlenmengen, wie die abzählbaren natürlichen Zahlen , ganzen Zahlen , rationale Zahlen und schließlich die überabzählbaren reellen Zahlen . Während die natürlichen Zahlen direkt mit dem Beweisprinzip der vollständigen Induktion in Verbindung stehen und für sich schon ein Thema der Zahlentheorie sind, benötigt man für die Analysis mindestens die reellen Zahlen. Diese kann man über konvergente Folgen bzw. Cauchy-Folgen rationaler Zahlen einführen. Für den Beweis der Äquivalenz dieser beiden Konvergenzbegriffe kann man die Dreiecksungleichung sehr gut gebrauchen. Ein Beispiel für eine Folge rationaler Zahlen, die gegen eine irrationale Zahl konvergieren ist , die gegen die Eulersche Zahl konvergiert, d.h. . Aus jeder Folge kann man eine Reihe bilden, indem man die Folgenglieder aufsummiert. Wichtige Reihen sind die geometrische Reihe mit Summenwert , wenn , und die divergente Harmonische Reihe, mit der man sogar Brücken bauen kann.Über den Begriff der Folge kann man auch offene Mengen und abgeschlossene Mengen definieren, so wie dies auch mit Epsilon-Umgebungen definiert werden kann. Diese Eigenschaften werden im Bereich der mathematischen Topologie noch viel umfassender eingeführt, aber schon diese Darstellungen helfen, den wichtigen Begriff der Funktion in der Analysis und deren Eigenschaften einzuführen. Zur Definition einer Funktion gehört neben der eigentlichen Abbildungsvorschrift die Angabe der Definitionsmenge und der Wertebereich. Ohne diese Informationen ist es nicht möglich Surjektivität und Injektivität nachzuweisen.Eine wichtige Eigenschaft von Funktionen ist der Begriff der Stetigkeit, die man für den Zwischenwertsatz benötigt. Damit kann man zum Beispiel wackelnde Tische reparieren oder mit Anastasia im Science Slam Orte gleicher Temperaturen auf der Erde suchen. Der Zwischenwertsatz gilt zunächst nur für reelle Funktionen, es gibt den Zwischenwertsatz aber auch in allgemeinerer Form.Eine weitere wichtige Eigenschaft von Funktionen ist die Differenzierbarkeit und das Berechnen von Ableitungen mit ihren Ableitungsregeln. Sehr wichtig ist dabei die Exponentialfunktion, die mit ihrer eigenen Ableitung übereinstimmt. Diese Funktion findet man im Alltag in jeder Kettenlinie in der Form des Cosinus Hyperbolicus wieder. Eine wichtige Anwendung für differenzierbare Funktionen ist der Mittelwertsatz, ohne den die Abschnittskontrolle auf Autobahnen zur Geschwindigkeitsüberprüfung nicht denkbar wäre. Aber auch in höheren Dimensionen kann man Differentialrechnung betreiben, und man führt dazu den Gradienten, Richtungsableitungen und z.B. die Divergenz eines Vektorfelds ein.Als Umkehrung der Differentiation erhält man die Integralrechnung. Jedoch ist das Bilden einer Stammfunktion nur bis auf eine Konstante eindeutig. Daher kann man zum Beispiel mit Beschleunigungssensoren im Handy nicht wirklich eine Positions- und Geschwindigkeitsmessung durchführen, sondern muss für die Trägheitsnavigation viele weitere Sensoren mit einbeziehen. Eine andere Einführung des Integrals ist das Lebesgue-Integral oder das Riemannsche Integral, wo man bei letzterem in einem Intervall die Fläche unter einer Kurve durch Treppenfunktionen annähert. Den Zusammenhang dieser beiden Begriff liefert der Fundamentalsatz der Analysis. Leider kann man nicht zu allen Funktionen analytische Stammfunktionen bestimmen. Hier kann dann die numerische Integration zum Einsatz kommen. Die Integration ist aber keine rein abstrakte Idee, sondern wir finden mathematische Zusammenhänge wie den Gaußsche Integralsatz direkt in der Natur wieder.Für den Start im Studium erhält man in Karlsruhe viel Unterstützung: Es gibt Vorkurse und die von der Fachschaft für Mathematik und Informatik organisierte Orientierungsphase, oder kurz O-Phase, in der man die zukünftigen Mitstudierenden kennenlernen kann. Mit diesen sollte man sich gemeinsam den Stoff von Vorlesungen, Übungen und Tutorien erarbeiten, um sich mit gelösten Übungsblättern zur Klausteilnahme zu qualifizieren, und letztlich auch die Prüfungen gemeinsam vorzubereiten.Literatur und Zusatzinformationen W. Reichel: Kurzskript Analysis 1, Vorlesung am KIT, 2012/2013. W. Reichel: Kurzskript Analysis 2, Vorlesung am KIT, 2013. H. Amann, J. Escher: Analysis 1, 3. Auflage, Birkhäuser-Verlag, 2008. O. Forster: Analysis 1, 7. Auflage, Vieweg-Verlag, 2004. H. Heuser: Lehrbuch der Analysis, Teil 1, 15. Auflage, Teubner-Verlag, 2006. K. Königsberger, Analysis 1, 5. Auflage, Springer-Verlag, 2001. W. Rudin, Analysis, 4. Auflage, Oldenbourg-Verlag, 2008. R. Strichartz, The Way of Analysis, Jones and Bartlett-Verlag, 1995. W. Walter, Analysis 1, 7. Auflage, Springer-Verlag, 2007. Konscience Podcast KNS026: Effizienz der photovoltaischen Wasserspaltung erhöht
11/6/2014 • 2 hours, 13 minutes, 59 seconds
Leistungsstrukturanalyse im Triathlon
Die wissenschaftliche Fundierung des sportlichen Trainings kann sowohl im Amateur- als auch im Profibereich zur Verbesserung der individuellen Leistung beitragen. Marian Hoffmann ist Mitarbeiter des BioMotion Centers und beschäftigt sich mit dem Einsatz multivariater Verfahren zur Identifikationen leistungsrelevanter Einflussgrößen durch Strukturgleichungsmodelle in der Sportart Triathlon. Hierzu zählen beispielsweise Kraft- und Ausdauerfähigkeiten sowie technische und taktische Merkmale. Im Gespräch mit Gudrun Thäter erläutert er den Einsatz mathematischer Methoden zur Bearbeitung dieser interdisziplinären Aufgabenstellung mit dem Ziel, spezifische Trainingsempfehlungen auf Basis einer Leistungsstrukturanalyse in dieser Ausdauersportart generieren zu können. Literatur und Zusatzinformationen K. Backhaus, B. Erichson, R. Weiber: Fortgeschrittene multivariate Analysemethoden. Eine anwendungsorientierte Einführung, (2., überarb. und erw. Aufl), Berlin: Springer Gabler, 2013. R. Bagozzi, Y. Yi: Specification, evaluation, and interpretation of structural equation models, Journal of Academic Marketing Science, 40, 8–34, 2012. A. Fuchs: Methodische Aspekte linearer Strukturgleichungsmodelle: Ein Vergleich von kovarianz- und varianzbasierten Kausalanalyseverfahren, Würzburg : Betriebswirtschaftliches Inst., Lehrstuhl für BWL und Marketing, 2011. H. Letzelter, M. Letzelter: Die Struktur sportlicher Leistungen als Gegenstand der Leistungsdiagnostik in der Trainingswissenschaft, Leistungssport, 12 (5), 351–361, 1982. G. P. Millet, V. E. Vleck, D. J. Bentley: Physiological requirements in triathlon, Journal of Human Sport & Exercise, 6 (2), 184–204, 2011.
10/16/2014 • 29 minutes, 53 seconds
Höhere Mathematik
Auch im Studium der Ingenieurswissenschaften steckt viel Mathematik: Diese spielt besonders am Anfang des Studiums der Fächer Maschinenbau, Verfahrenstechnik und Chemieingenieurwesen am KIT eine große Rolle, und Frank Hettlich begleitet mit seinem Team die Studienanfänger in der sogenannten Höheren Mathematik in den ersten drei Semestern. Dabei geht es ihm in den Vorlesungen nicht um die Vermittlung von Patentrezepten, sondern um den kreativen Umgang mit mathematischen Methoden, die für das weitere Studium eine große Rolle spielen werden.Um den Übergang von der Schulmathematik zur universitären Mathematik zu erleichtern, gibt es einen sehr gut besuchten zwei-wöchigen Vorkurs parallel zur Orientierungsphase vor dem eigentlichen Vorlesungsbeginn. Im Gespräch mit Gudrun Thäter erzählt er, dass es besonders wichtig ist, einfach den Stift wieder in die Hand zu nehmen und sich selbst an der Mathematik zu versuchen, um den Einstieg erfolgreich zu vollbringen. Dafür gibt es viele Übungen, anwendungsnahe Beispiele und Materialen, wie das Buch zur Mathematik, in das Frank Hettlich seine langjährigen Erfahrungen aus der Lehre einbringen konnte.Ganz wichtig ist es auch, die Begeisterung für das wissenschaftliche Vorgehen zu vermitteln, und die Studierenden zur Zusammenarbeit anzuregen. Letztlich gibt es aber auch Klausuren zur Mathematik, die zumindest in Karlsruhe eher weniger den Grund für einen Studienabbruch liefern. Keinesfalls sollten sie aber die leichte Schulter genommen werden, und auch dazu hat Frank Hettlich einige wichtige Tipps: Zeitplanung, Zusammenarbeit und Vorsicht im Umgang mit Lösungen.Literatur und Zusatzinformationen T. Arens, F. Hettlich, C. Karpfinger, U. Kockelkorn, K. Lichtenegger, Stachel: Mathematik, Spektrum, Akad. Verlag, 2008. F. Hettlich: Vorkurs Mathematik, Shaker-Verlag, Aachen, 2009. Vorlesung: Mathematischer Vorkurs Vorlesungen: Höhere Mathematik I für die Fachrichtung Maschinenbau, Geodäsie und Materialwissenschaften und Werkzeugstofftechnik, Höhere Mathematik I für die Fachrichtungen Chemieingenieurwesen, Verfahrenstechnik, Bioingenieurwesen und MIT Vorlesung: Höhere Mathematik III für die Fachrichtungen Maschinenbau, Chemieingenieurwesen, Verfahrenstechnik, Bioingenieurwesen und das Lehramt Maschinenbau Podcast zum Maschinenbau: Maschinenraum Podcast
9/18/2014 • 48 minutes, 24 seconds
Logistik und Big Data
Im Bereich der Logistik geht es um die fortlaufende Optimierung des Geschäftsprozesses und dies kann man inzwischen auf Basis einer großen Menge von teilweise komplex strukturierten Echtzeitdaten, kurz gesagt Big Data, umsetzen. Liubov Osovtsova hat dazu ein Modell der Transportlogistik auf Basis von Petri-Netzen in CPN Tools in der Form eines Coloured Petri Net aufgestellt. Im Gespräch mit Gudrun Thaeter erklärt sie, wie sie damit unter Nutzung des Gesetz von Little und Warteschlagentheorie stochastische Aussagen über Engpässe und Optimierungspotentiale bestimmen konnte. Literatur und Zusatzinformationen C. Pettey, L. Goasduff: Gartner Says Solving "Big Data" Challenge Involves More Than Just Managing Volumes of Data, Gartner Press Release, 2011. C. Hagar: Crisis informatics: Perspectives of trust - is social media a mixed blessing? SLIS Student Research Journal, Nr. 2 (2), 2012. W. van der Aalst: The Application of Petri Nets to Workflow Management, The Journal of Circuits, Systems and Computers, Nr. 8 (1), 21–66, 1988. CPN-Tools Documentation
9/11/2014 • 14 minutes, 10 seconds
Digitale Währungen
Um im digitalen Umfeld elektronischen Handel zu betreiben, benötigt man einen gesicherten Datenaustausch für Angebote, Verhandlungen und Verträge, aber letztlich auch eine Form von elektronischem Geld auf dem der Handel basiert. Ganz zentral ist dabei die moderne Kryptographie und insbesondere die Public Key-Verfahren, die durch mathematische Verfahren das ganze ermöglichen, soweit die Verfahren sicher, korrekt implementiert und richtig benutzt werden, und es nicht zu einem Fiasko wie dem Heartbleed-Bug kommt. Im Gespräch mit Gudrun Thäter erläutert Sebastian Ritterbusch die Mathematik hinter digitalem Geld und der Kryptowährung Bitcoin. Dazu geht es zunächst in die Zahlentheorie der Restklassenkörper und spezielle Restklassenringe . Mit dem kleinen Satz von Fermat versehen wir eine Einwegfunktion mit einer Falltür und kommen auf Hash-Funktionen und das RSA-Verfahren. Damit kann man auch digital Unterschreiben (sogar bei Bedarf blind signieren), wir diskutieren, wie Verträge durch einen Kollisionsangriff und dem Geburtstagsparadoxon gefälscht werden können, und wie damit erfolgreich ein Root-Zertifikat fingiert wurde. Für das zentral organisierte und anonyme digitale Geld benötigt man dann nur noch das Prinzip des geteilten Geheimnis. Leider kommt das Verfahren gegenüber weniger anonymen Verfahren heute kaum zum Einsatz, im Gegensatz zum Bitcoin-Verfahren, das sich wachsender Beliebtheit erfreut. Hier ersetzt ein Peer-to-Peer-Netzwerk und eine Hash-Kette die zentrale Instanz, und verhindert so das doppelte Ausgeben durch die gemeinsame Vergangenheit von Transaktionen, die über einen Merkle-Baum in die Block-Chain platzsparend integriert werden. Literatur und Zusatzinformationen D.Chaum, A.Fiat, M.Naor: Untraceable electronic cash, Proceedings on Advances in Cryptology, S. Goldwasser, Ed. Springer-Verlag New York, New York, NY, 319-327, 1990. S.Nakamoto: Bitcoin, A Peer-to-Peer Electronic Cash System, Whitepaper, The Cryptography Mailing List, 2008. A.Sotirov, M.Stevens, J.Appelbaum, A.Lenstra, D.Molnar, D.A.Osvik, B.Weger: MD5 considered harmful today, Creating a rogue CA certificate, Crypto 2009 Proceedings, 2009. Z.Durumeric, E.Wustrow, J.A.Halderman: ZMap - der IPv4-Scan J.A.Haldermann: Fast Internet-wide Scanning and its Security Applications, Vortrag 30C3, 2013. Heise.de, bbe: Virenscanner warnt vor Bitcoin-Blockchain, 17.5.2014. Heise.de, axk: Bitcoin: Erstmals gefährliche Konzentration der Mining-Leistung, 16.6.2014. Podcast: T.Pritlove und A.Bogk: CRE182, Elektronisches Geld Podcast: M.Richter und A.Bogk: Die Wahrheit 005, Bitcoins Podcast: F.Blue, X.Initrc, M.Malik: Death of a traveling salesman Podcast: D.Jäckel und A.Schildbach: Bitstaub, Ein Bitcoin Podcast Podcast: Bitcoin Austria: Bitcoin Update Podcast: M.Völter, G.Andresen: Omega Tau 59, Bitcoin
8/21/2014 • 2 hours, 22 minutes, 18 seconds
Matrixfunktionen
Eine Funktion, die eine Matrix auf eine Matrix abbilden kann, ist eine Matrixfunktion. Diese Funktionen finden besonders bei der numerischen Behandlung von Evolutionsgleichungen wie zum Beispiel der Wärmeleitungsgleichung ihre Anwendung. Dazu bändigt Tanja Göckler die komplizierten partiellen Differentialgleichungen, die aus der mathematischen Modellbildung entstehen, durch Diskretisierung und weiteren Methoden zu gewöhnlichen Differentialgleichungen. Diese können durch Potenzreihen gelöst werden, die auch als Matrixfunktionen eingesetzt werden können. So kann man beispielsweise auch die Exponentialfunktion als Potenzreihe auf eine Matrix anwenden, um lineare Differentialgleichungen zu lösen. Im Gespräch mit Gudrun Thäter erklärt sie, wie man diese Aufgaben aber mit rationalen Krylov-Verfahren noch viel effizienter lösen kann. Literatur und Zusatzinformationen T. Göckler, V. Grimm: Convergence Analysis of an Extended Krylov Subspace Method for the Approximation of Operator Functions in Exponential Integrators, SIAM J. Numer. Anal., 51(4), 2189-2213, 2013. S. Güttel: Rational Krylov approximation of matrix functions: Numerical methods and optimal pole selection, GAMM‐Mitteilungen 36.1: 8-31, 2013. N. J. Higham: Functions of Matrices: Theory and Computation, Society for Industrial and Applied Mathematics, Philadelphia, 2008. S. Ritterbusch: Warum funktioniert das CG-Verfahren? Eine Einführung in das wohl bekannteste Krylovraum-Verfahren.
8/14/2014 • 25 minutes, 4 seconds
Motorisches Lernen
Kinder erlernen das Laufen und Schreiben im Spiel, doch für Erwachsene ist es nach z.B. einem Schlaganfall eine ganz andere Herausforderung. Daher untersucht Christian Stockinger im BioMotion Center das motorische Lernen, damit wir besser verstehen können, wie sich der Körper sensormotorische Programme abruft. Mit einem Robotic Manipulandum, dem BioMotionBot, lässt er dazu die Probanden einfache Armbewegungen durchführen, die unbemerkt durch ein Kraftfeld gestört werden. Dadurch erlernen sie unbemerkt neue Bewegungsabläufe, und im Gespräch mit Gudrun Thäter erklärt er, wie man diesen Lernvorgang mathematisch mit einem Zwei-Prozessmodell beschreiben kann. Daraus kann man sowohl viel über die Vorgänge lernen, Therapien verbessern, als auch die Entwicklung von modernen Prothesen und humanuider Roboter voranbringen. Literatur und Zusatzinformationen D. W. Franklin, D. M. Wolpert: Computational mechanisms of sensorimotor control, Neuron 72.3: 425-442, 2011. R. Shadmehr, M.A. Smith, J.W. Krakauer: Error Correction, Sensory Prediction, and Adaptation in Motor Control, Annual Reviews Neuroscience, 33:89-108, 2010. R. Shadmehr, S.P. Wise: The Computational Neurobiology of Reaching and Pointing: A Foundation for Motor Learning, Cambridge: MIT Press, 2005. V. Bartenbach, C. Sander, M. Pöschl, K. Wilging, T. Nelius, F. Doll, W. Burger, C. Stockinger, A. Focke, T. Stein: The BioMotionBot: A robotic device for applications in human motor learning and rehabilitation, Journal of Neuroscience Methods, 213(2):282-297, 2013.
8/7/2014 • 48 minutes, 4 seconds
Unfallvorhersage
Aus einem Verkehrsmodell kann man den Straßenverkehr simulieren und damit mögliche Staustellen und auch die Gefahr für Verkehrsunfälle vorhersagen. Dafür wird das Straßennetz in ein Netzwerk aus Knoten und Kanten zerlegt, und mit stochastischen Methoden aus früheren Messungen Aussagen über die Zukunft getroffen und Auswirkung von Änderungen analysiert. Marianne Petersen hat dazu den Verkehr im Rhein-Main-Gebiet betrachtet und beschreibt im Gespräch mit Gudrun Thäter, wie sie mit Bayes-Verfahren, Regressionsanalyse und Poisson-Verteilungen gerade auch seltene Unfallereignisse analysieren konnte. Literatur und Zusatzinformationen A.Aurich: Modelle zur Beschreibung der Verkehrssicherheit innerörtlicher Hauptverkehrsstraßennetze unter besonderer Berücksichtigung der Umfeldnutzung, Dissertation an der Fakultät Verkehrswissenschaften der Technischen Universität Dresden, 2012. Department of Transport: Design Manual for Roads and Bridges, UK, 1995. Department of Transport: The COBA manual, Economic Assessment of road schemes, UK, 2006. L. Fawcett, N. Thorpe: Mobile safety cameras: estimating casualty reductions and the demand for secondary healthcare, Journal of Applied Statistics, Vol. 40, Iss. 11, 2013.
7/31/2014 • 27 minutes, 2 seconds
Getriebeauswahl
Getriebe sind mechanische Komponenten, die oft zwischen Motoren und anzutreibenden Maschinenteilen zum Einsatz kommen, und übersetzen Drehmomente und Drehzahlen. Für einen Anwendungsfall gibt es aber viele einsetzbare Getriebe mit vielen weiteren Eigenschaften, wie Wirkungsgrad, Geräuschentwicklung, Größe, Gewicht und vieles mehr. Jonathan Fröhlich hat hier die Frage betrachtet, wie man bei der Auswahl des Getriebes vorgehen kann, und erklärt im Gespräch mit Gudrun Thäter, wie hier der Analytic Hierarchy Process den Entscheidungsprozess durch die Berechnung von Eigenwerten und Eigenvektoren unterstützen kann. Literatur und Zusatzinformationen R.W. Saaty: The analytic hierarchy process—what it is and how it is used, Mathematical Modelling, Volume 9, Issues 3–5, 161-176, 1987. D. Gastes: Erhebungsprozesse und Konsistenzanforderungen im Analytic Hierarchy Process (AHP), Dissertation am Karlsruher Institut für Technologie (KIT), 2011. W. Steinhilper, B. Sauer: Konstruktionselemente des Maschinenbaus 2, Springer, 2012. Der Maschinenraum-Podcast zu vielen weiteren Fragen im Maschinenbau.
7/24/2014 • 25 minutes, 33 seconds
Wahlsysteme
Wahlsysteme definieren den Ablauf von Wahlen, und wie daraus ein Wahlergebnis bestimmt wird. Dieses Ergebnis soll die oft sehr unterschiedlichen Vorstellungen der Wählenden möglichst gut repräsentieren. Philipp Staudt hat dazu mathematisch analysiert, wie das deutsche Wahlsystem gegenüber alternativen Verfahren wie der Rangaddition und der Condorcet-Methode abschneidet. Ein besonderes Augenmerk lag im Gespräch mit Gudrun Thäter auch auf der Frage, wie die 5 Prozent-Klausel unter verschiedenen Voraussetzungen das Ergebnis beeinflusst. Literatur und Zusatzinformationen K.J. Arrow: Social choice and individual values, Volume 12, Yale university press, 2012. B. Pareigis: Sind Wahlen undemokratisch, mathe-lmu.de Nr.14, (26-33), 2006. D. Black, R.A. Newing, I. McLean, A. McMillan, B.L. Monroe: The theory of committees and elections, Springer, 1958. A. Tangian, Mathematical theory of democracy, Springer, 2013. G.G. Szpiro: Die verflixte Mathematik der Demokratie, Springer, 2011.
7/17/2014 • 25 minutes, 8 seconds
Last-Call Auktionen
Last-Call Auktionen sind Auktionen, in denen ein Bieter bevorzugt wird. Marie-Christin Haufe beschäftigt sich in ihrer Diplomarbeit mit dieser Auktionsform und untersucht, wie sich die Vergabe eines Last-Call Rechts auf das Bietverhalten der nichtbevorzugten Bieter auswirkt. Dabei werden spieltheoretische Gleichgewichte berechnet, ökonomisch interpretiert und ihre Auswirkungen auf den erwarteten Auktionserlös mathematisch analysiert. Im Gespräch mit Gudrun Thäter erklärt sie, wie sie mit der Modellierung durch die Betaverteilung Aussagen über die Bieterstärken, Wertschätzung und der Aggressivität im Auktionsprozess sowohl als Erstpreisauktion als auch in einer Zweitpreisauktion treffen konnte. Literatur und Zusatzinformationen J.-S. Lee: Favoritism in asymmetric procurement auctions, International Journal of Industrial Organization 26.6: 1407-1424, 2008. B. Lebrun: Revenue-Superior Variants of the Second-Price Auctions, Discussion paper, York University, 2012. V. Krishna: Auction theory, Academic press, 2009.
7/3/2014 • 18 minutes, 45 seconds
Predictive Analytics
Bei Blue Yonder, einem führenden Lösungsanbieter im Bereich Prognosen und Mustererkennung in Europa, arbeitet Florian Wilhelm an verschiedenen Kundenprojekten und spricht darüber mit Gudrun Thäter. Ein konkretes Beispiel sind Absatzprognosen für einen Kunden im Einzelhandel. Mit diesen Prognosen kann der Disponent eine optimale Entscheidung treffen wie viele Produkte er von einem Großhändler kauft, um bei hoher Warenverfügbarkeit möglichst geringe Abschreibungen durch verdorbene Ware zu haben. Zur Generierung dieser Prognosen werden sowohl Methoden aus dem Bereich des Maschinellen Lernens wie auch der Statistik angewendet. Manche Methoden haben ihren Ursprung in der Teilchenphysik, wo sie verwendet werden um Teilchen in den Experimenten am CERN nachzuweisen. Literatur und Zusatzinformationen V. Mayer-Schönberger, K. Cukier: Big Data: A Revolution That Will Transform How We Live, Work and Think, HMH Books, 2013. A. Beck, M. Feindt: Einführung in die Blue Yonder Basistechnologie, Research Paper, 2013. M. Feindt: Why cutting edge technology matters for Blue Yonder solutions, Research Paper, 2014. C. Bishop: Pattern Recognition and Machine Learning (Information Science and Statistics), Springer Science, 2006. T. Hastie, R. Tibshirani, J. Friedman: The Elements of Statistical Learning, Springer Series in Statistics, 2009. Predictive Analytics (19MB,mp3)
6/26/2014 • 32 minutes, 45 seconds
Wasserstraßen
An der Bundesanstalt für Wasserbau (BAW) befasst sich Rebekka Kopmann in der Abteilung für Flusssysteme mit Analysen und Prognosen des Systemzustands von Bundeswasserstraßen. Strömungsmodelle liegen am BAW sowohl als nachgebaute Modelle von Flussstücken als auch als mathematisch beschriebene Computermodelle vor, die nur im Rechner simuliert werden. Im Gespräch mit Gudrun Thäter beschreibt sie die Herausforderung der Kalibration der Simulationsmodelle an die Wirklichkeit, damit sinnvolle Analysen und Prognosen möglich werden. Neben vielen weiteren Parametern ist die Rauheit im Fluss sehr wichtig und ist leider nur sehr zeitaufwendig zu bestimmen. Die Aufgabe führt sie auf ein Optimierungsproblem zurück, wo die unbekannten Parameter durch Annäherung vielfach ausgeführter Simulationen an die gemessene Wirklichkeit bestimmt werden. Da eine einzelne Flusssimulation teilweise tagelang rechnet, sucht sie nach sinnvollen Vereinfachungen oder Alternativen, die das Problem schneller lösen. Aktuell werden Methoden der Automatischen Differentiation eingesetzt, die helfen Gradientenverfahren zur Annährung an die Lösung zu beschleunigen. Dabei trifft man auch auf interdisziplinäre Herausforderungen, wenn es um die feinen mathematischen Unterschiede zum Beispiel zwischen Ableitung, Steigung und einem Gradienten geht. Literatur und Zusatzinformationen R. Kopmann, A. Goll (eds): 20th TELEMAC-MASCARET User Conference 2013, Proceedings, Karlsruhe, 2013. U. Merkel, J. Riehme, U. Naumann: Rückrechnung von Rand- und Anfangsbedingungen mit Telemac und Algorithmischer Differentiation, Wasserwirtschaft H.12, S.22-27, 2013. R. Kopmann, M. Schäfer: Automatic Calibration with Telemac-AD, Proceedings 21st Telemac-Mascaret User Conference 2014, Grenoble (abstract submitted), Okt. 2014. M. Schäfer: Erprobung von Optimierungsalgorithmen für die Kalibrierung eines Finite-Elemente Strömungsmodells auf Basis von Gradienten. Masterarbeit Karlsruher Institut für Technologie, Karlsruhe, 2014.
6/12/2014 • 35 minutes, 10 seconds
Gasspeicher
Um Gasspeicher mit möglichst viel Gewinn zu betreiben, verwendet Viola Riess Markov-Prozesse, um mit statistischen Methoden und durch mathematische Modelle optimale Handelsstrategien zu berechnen. Dabei muss sie neben Vorhersagemodellen für den Gaspreis auch die Restriktionen des Speichers in Füllstand und Kapazität berücksichtigen. Im Gespräch mit Gudrun Thäter erklärt sie die Diskretisierung des stochastischen Prozesses in ein Gitter, und die Rückwärtsinduktion zur Bewertung der Strategie, wie wir sie auch schon im Podcast zu Pumpspeicherkraftwerken kennengelernt hatten. Literatur und Zusatzinformationen A. Boogert, C. de Jong: Gas storage valuation using a monte carlo method, Journal of Derivatives, Vol. 15, No. 3: pp. 81-98, 2008. N. Secomandi: Optimal Commodity Trading with a capacitated storage asset, Management Science, Volume 56 Issue 3, 2010. F. E. Benth, J. S. Benth, S. Koekebakker: Stochastic modelling of electricity and related markets, Vol. 11. World Scientific, 2008.
6/5/2014 • 40 minutes, 15 seconds
Versuchsplanung
Mit Differentialgleichungsmodellen werden oft zeitliche und/oder räumliche Prozesse modelliert, beispielsweise auch enzymatisch katalysierte Reaktionen. Anna Osberghaus schildert im Gespräch mit Gudrun Thäter, wie sie in ihrer Diplomarbeit mit Hilfe von Modelldiskriminierung unter den möglichen Reaktionswegen eines bestimmten Enzyms den wahrscheinlichsten bestimmt hat und danach mittels optimaler Versuchsplanung Experimente entworfen hat, die die Entscheidung für einen bestimmten Reaktionsweg in Zukunft vereinfachen sollten. Nebenbei schildert sie humorvoll und ehrlich ihren Werdegang von einer an "echten Daten" interessierten Mathematikstudentin zum PostDoc im Ingenieurwesen. Literatur und Zusatzinformationen A. Osberghaus (geb. Siudak), E. von Lieres, C. Müller: Estimation, model discrimination, and experimental design for implicitly given nonlinear models of enzyme catalyzed chemical reactions., Mathematica Slovaca, 59(5),593-610, 2009. A. Osberghaus (geb. Siudak): Robuste Parameterschätzung, Modelldiskriminierung und optimale Versuchsplanung am Beispiel von In-vitro-Datensätzen zur Benzaldehydlyase, Diplomarbeit an der Carl von Ossietzky Universität Oldenburg, 2007. A. Pázman: Nonlinear Statistical Models, Mathematics and its Applications, Kluwer, Dordrecht, 1993. A.C. Atkinson, A.N. Donev: Optimum Experimental Designs, Oxford Statistical Science Series, Oxford University Press, Oxford, 1992.
5/22/2014 • 31 minutes, 26 seconds
Chromatographie
Tobias Hahn simuliert mit einem Konvektions-Diffusions-Modell die Makrokinetik in einer Chromatographie-Säule zur Isolation und Analyse von Proteinen und Antikörper für verbesserte Medikamente und viele weitere bio-chemische Produkte. Im Gespräch mit Gudrun Thäter erklärt er, wie Simulationen die Chromatographie verbessern und die Anzahl von Experimenten verringern. Eine besonders wichtige Anwendung ist auch die Parameterschätzung von unbekannten Größen aus durchgeführten Experimenten, wo durch das Fitting der Simulation an die gemessenen Daten die einzelnen Prozesse analysiert werden können. Literatur und Zusatzinformationen ChromX - Simulation toolbox for liquid chromatography of proteins. T. Hahn, A. Sommer, A. Osberghaus, V. Heuveline, J. Hubbuch: Adjoint-based estimation and optimization for column liquid chromatography models, Computers & Chemical Engineering, 64, 41-54, 2014. H. Schmidt-Traub, M. Schulte, A. Seidel-Morgenstern (Eds.): Preparative Chromatography, Second Edition, Wiley-VCH Verlag GmbH & Co. KGaA, 2012. Chromatography Online: Library4Science Chrom-Ed Series, Online books on chromatography
5/15/2014 • 49 minutes, 25 seconds
Zeitreihen
Zeitreihen erleben wir bei Aktienkursen, seismischen Messungen, Wetterbeobachtungen, Wahlen und vielem mehr. Franziska Lindner befasst sich deshalb mit der Zeitreihenanalyse und wie man mit mathematischen Methoden und Statistik Aussagen über die Struktur der Zeitreihen, Ereignisse im Zeitverlauf und Prognosen mit Konfidenzbereichen bestimmen kann. Im Gespräch mit Gudrun Thäter erläutert sie das Prinzip der Stationarität und den Einsatz der Fourieranalyse und das statistische Resampling in der Zeitreihenanalyse. Literatur und Zusatzinformationen R. Dahlhaus: Fitting time series models to nonstationary processes, The Annals of Statistics 25.1, 1-37, 1997. C. Kirch, D. Politis: TFT-bootstrap: Resampling time series in the frequency domain to obtain replicates in the time domain, The Annals of Statistics 39.3: 1427-1470, 2011.
4/24/2014 • 32 minutes, 50 seconds
Computerunterstütztes Beweisen
Dagmar Rütters führt im Gespräch mit Gudrun Thäter die Technik ein, Computer unterstützte Beweise zu führen. Eine große Rolle spielt hierbei eine mathematisch korrekte Berechnung aller Größen, die zum Beispiel durch Intervallarithmetik möglich wird .Literatur und Zusatzinformationen M. Plum: Existence and multiplicity proofs for semilinear elliptic boundary value problems by computer assistance, Jahresbericht der Deutschen Mathematiker Vereinigung 110.1: 19, 2008. P.J. McKenna, F. Pacella, M. Plum, M., D. Roth: A uniqueness result for a semilinear elliptic problem: A computer-assisted proof, Journal of Differential Equations, 247(7), 2140-2162, 2009. K. H. Bachmann, G. Alefeld, J. Herzberger: Einführung in die Intervallrechnung, Zürich. B. I.-Wissenschaftsverlag. 1974.
4/17/2014 • 40 minutes, 30 seconds
Sicherheitsventile
Sicherheitsventile sollen uns durch eine geeignete Auslegung vor Explosionen und Unglücken wie dem Sevesounglück in der Industrie schützen. Doch sind die aktuellen Sicherheitsrichtlinien zeitgemäß? Andreas Schleich hat dazu ein Sicherheitsventil mathematisch modelliert und mit der Lattice-Boltzmann Methode den Betrieb mit numerischer Fluid-Simulation simuliert. Dazu verwendete er ein Large-Eddy Modell zur Turbulenzmodellierung und validierte die Methode mit dem Strömungswiderstandskoeffizient (cW-Wert) einer Metallkugel. Im Gespräch mit Sebastian Ritterbusch erzählt er auch über Vakuumbläschen und andere Herausforderungen in der Simulation. Literatur und Zusatzinformationen OpenLB: Open source lattice Boltzmann code J. Cremers, L. Friedel: Methode zur schwingungssicheren Auslegung von federbelasteten Vollhubsicherheitsventilen mt Zu‐ und Ableitung bei Gasströmung, Chemie Ingenieur Technik 73.9: 1178-1182, 2001. D. Smith, J. Burgess, C. Powers: Relief device inlet piping: Beyond the 3 percent rule: With careful consideration, an engineer can be certain that an installation will not chatter, Hydrocarbon processing 90.11, 2001. P. Nathen, D. Gaudlitz, M. J. Krause, J. Kratzke: An extension of the Lattice Boltzmann Method for simulating turbulent flows around rotating geometries of arbitrary shape, 21st AIAA Computational Fluid Dynamics Conference. American Institute of Aeronautics and Astronautics, 2013. J. Fietz et al.: Optimized hybrid parallel lattice Boltzmann fluid flow simulations on complex geometries, Euro-Par 2012 Parallel Processing. Springer Berlin Heidelberg, 818-829, 2012.
2/27/2014 • 22 minutes, 53 seconds
Migräne
Das Gehirn ist nicht nur eine graue Substanz, sondern ein sehr komplexes Organ, wo es noch viel zu erforschen gibt. Markus Dahlem befasst sich mit der Migräne, und erklärt im Gespräch mit Gudrun Thäter und Sebastian Ritterbusch, wie hier mit Modellbildung im Gehirn neue Erkenntnisse erzielt werden: Migräne ≠ Kopfschmerzen, auf diese einfache Formel kann man es bringen. Denn Migräne ist eine Krankheit, Kopfschmerz ein Symptom. Kopfschmerzen sind nicht einmal notwendiges Merkmal dieser Volkskrankheit, die, je nach Detailtiefe der Diagnose, in bis zu 19 Unterformen klassifiziert werden kann, eine davon ohne Kopfschmerzen dafür mit visuellen Halluzinationen, die man Aura nennt. Laut der neusten Studie der Weltgesundheitsorganisation über die globale Gesundheitsbelastung ist Migräne weltweit für fast 3% der Behinderungen verantwortlich. Damit befindet sich Migräne an achter Stelle der am schwersten belastenden Krankheiten und auf dem ersten Platz unter den neurologischen Erkrankungen. Wie kann hier die Mathematik helfen? Der Verlauf einer Migräne mit Aura ist kennzeichnend für einen bestimmten Mechanismus raum-zeitlicher Strukturen. Solche Strukturen zum Beispiel in Form lokalisierter Wellensegmente sind in der Musterbildung aus Reaktion-Diffusions-Systemen vom Aktivator-Inhibitor-Typ bekannt. Literatur und Zusatzinformationen Markus A. Dahlem: Graue Substanz, SciLogs Blog. Markus A. Dahlem: Dynamik der Migräne- Modelle aus der Physik tragen dazu bei, bislang unverstandene Phänomene der Migräne zu erklären, Physik Journal 11.10: 39, 2012. Markus A. Dahlem, Thomas M. Isele: Transient localized wave patterns and their application to migraine, The Journal of Mathematical Neuroscience (JMN) 3.1: 1-28, 2013. Markus A. Dahlem: Migraine generator network and spreading depression dynamics as neuromodulation targets in episodic migraine. Chaos: An Interdisciplinary Journal of Nonlinear Science 23.4: 046101, 2013.
2/20/2014 • 1 hour, 54 minutes, 51 seconds
Lärmschutz
Der Autoverkehr macht Lärm, und vor diesem möchte man die Umwelt mit Lärmschutzwänden oder Lärmschutzwällen schützen. Tilo Arens erklärt im Gespräch mit Sebastian Ritterbusch, wie man die Schallausbreitung mit der Helmholtz-Gleichung mathematisch modellieren kann und durch das Huygens-Prinzip mit Randelementen und Integralgleichungen simulieren kann. Literatur und Zusatzinformationen S. Chandler-Wilde, S. Langdon: Boundary element methods for acoustics, Introductory lecture notes on FEM and BEM for acoustics problems, University of Reading, 2007. EPSRC Support Mathematics for Acoustics Research Training. Mc Laughlin, Philip: Outdoor sound propagation and the boundary element method, Diss. MSc dissertation, University of Reading, 2005. A. Meier: Boundary element methods for outdoor sound propagation, Diss. Ph. D. thesis, Brunel University, 2001. A. Peplow, S. Chandler-Wilde: Noise propagation from a cutting of arbitrary cross-section and impedance, Journal of sound and vibration 223.3, 355-378, 1999.
2/13/2014 • 32 minutes, 8 seconds
Lawinen
Lawinen und Muren sind im alpinen Bergland allgegenwärtige Gefahren, daher ist die Simulation des Abgangs gerade für Anwohner und Versicherungen sehr wichtig. Auf Basis eines Geländemodell aus dem Grass GIS Geoinformationssystem hat Katharina Schratz das mathematische Modell numerisch umgesetzt, und geht im Gespräch mit Sebastian Ritterbusch auf die Besonderheiten der Diskretisierung und der speziellen CFL-Bedingungung für numerische Stabilität ein. Literatur und Zusatzinformationen Mergili, M., Schratz, K., Ostermann, A., and Fellin, W.: Physically-based modelling of granular flows with Open Source GIS, Natural Hazards and Earth System Sciences, 12, 187-200, 2012. Pudasaini, Shiva P., and Kolumban Hutter, eds. Avalanche dynamics: dynamics of rapid flows of dense granular avalanches, Springer, 2007. Mergili, Martin, et al.: Simulation of debris flows in the Central Andes based on Open Source GIS: possibilities, limitations, and parameter sensitivity, Natural hazards 61.3: 1051-1081, 2012.
2/6/2014 • 16 minutes, 36 seconds
Windsimulation im Stadtgebiet
Irina Waltschläger modelliert den Wind im Stadtgebiet, um die Luftbewegung ausgehend von einem Gebäude- und Geländemodell mit den Navier-Stokes Gleichungen als Fluid simulieren und analysieren zu können. Im Gespräch mit Sebastian Ritterbusch erklärt sie, wie sie dazu künstliche Randbedingungen auf der Basis meteorologischer Erkenntnisse zum Windprofil entworfen hat, und deren Einfluss auf die Simulation analysierte. Literatur und Zusatzinformationen I. Waltschläger, et al.: Augmented Reality Visualization of Numerical Simulations in Urban Environments, International Journal On Advances in Systems and Measurements 6.1 and 2, pp. 26-39, 2013. T. Hauenstein: Das 3D-Stadtmodell Karlsruhe, INTERGEO, Karlsruhe, 2009. S. R. Hanna, et al.: Detailed simulations of atmospheric flow and dispersion in downtown Manhattan: An application of five computational fluid dynamics models, Bulletin of the American Meteorological Society, vol. 87, no. 12, pp. 1713–1726, 2006.
1/30/2014 • 46 minutes, 41 seconds
Strömungssteuerung und Gebietszerlegung
Luftströmungen sorgen für den Auftrieb von Flugzeugen, und sind zu großem Teil durch den Luftwiderstand für den Treibstoffverbrauch im Auto verantwortlich. Deswegen untersucht Eva Ketelaer, wie man mit Finiten Elementen Strömungen simulieren und optimal steuern kann, und erläutert im Gespräch mit Gudrun Thäter auch, wie man die Verfahren auch auf Hochleistungsrechner mit Zerlegungsmethoden skalieren kann. Literatur und Zusatzinformationen E. Ketelaer: Domain Decomposition Methods in Optimal Flow Control for High Performance Computing, Dissertation an der Fakultät für Mathematik am Karlsruher Institut für Technologie, 2013. A. Toselli, and O. Widlund: Domain decomposition methods - algorithms and theory, Springer series in computational mathematics 34, 2005. M. D. Gunzberger: Perspectives in flow control and optimization, Advances in design and control 5, Society for Industrial and Applied Mathematics, 2003.
1/9/2014 • 20 minutes, 10 seconds
Erdbeben
Erdbeben lassen sich nicht verhindern, doch wir lernen immer besser mit ihnen umzugehen. Dafür simuliert Stephanie Wollherr die Erdschwingungen und erklärt im Gespräch mit Gudrun Thäter, wie wir mit optimaler Versuchsplanung bessere Aufstellorte für Seismographen bestimmen können. Durch das Modell in schwacher Formulierung und Optimierung des Messnetzes mit Fisher-Informationsmatrix erhalten wir ein genaueres Bild über die physikalischen Vorgänge in der Erde und letztlich eine bessere Grundlage für Vorhersagen. Literatur und Zusatzinformationen A. Nestler: Parameteridentifikation und Optimale Versuchsplanung bei instationären partiellen Differentialgleichungen, Dissertation an der Fakultät für Mathematik am Karlsruher Institut für Technologie, 2012. G. Sauter: Schallausbreitung in der Methode der Finiten Massen, Dissertation an der Fakultät für Mathematik und Physik in der Universität Tübingen, 2004. D. Ucinski: Optimal measurement methods for distributed parameter system identification, CRC Press, 2005.
12/19/2013 • 37 minutes, 57 seconds
Flammen
Auch Flammen können durch partielle Differentialgleichungen modelliert werden, und Robin Trunk hat so ein Modell mit Hilfe von Level-Set Methoden numerisch mit Finiten Elementen simuliert. Im Gespräch mit Gudrun Thäter geht er auch auf die Zusammenarbeit mit den Ingenieuren am IKET und das Studium der Technomathematik ein. Literatur und Zusatzinformationen C. Bruzzese: Simulation vorgemischter Flammen mittels integraler Reaktionszonenmodellierung, Dissertation an der Fakultät für Maschinenbau, 2012.
12/12/2013 • 18 minutes, 13 seconds
Positionsbestimmung
Hakan Demirel hat die Positionsbestimmung auf der Erde untersucht, wie sie zum Beispiel mit dem Global Positioning System möglich ist. Dabei geht er im Gespräch mit Gudrun Thäter auch auf Fehlerquellen ein, die auf sehr unterschiedliche Arten, die bestimmte Position verfälschen können, und wie Blitze verortet werden können. Literatur und Zusatzinformationen M. Bauer: Vermessung und Ortung mit Satelliten, Heidelberg, Wichmann, 1997. W. Mansfeld: Satellitenortung und Navigation: Grundlagen Wirkungsweise und Anwendung globaler Satellitennavigationssysteme, Vieweg + Teubner, 2010.
12/5/2013 • 35 minutes, 17 seconds
Rotierender 3D-Druck
Marie-Luise Maier hat ein 3D-Druck-Verfahren analysiert und optimiert, mit dem das sonst bei FDM-Druck notwendige Stützmaterial eingespart werden kann. Teil der Modellbildung ist dabei der Funktionsbegriff. Mit Sebastian Ritterbusch spricht sie über Klassen von mehr oder weniger druckbaren Objekten und einem konstruktiven Algorithmus. Literatur und Zusatzinformationen P. Fastermann: 3D-Druck/Rapid Prototyping, Springer, 2012. M. Leary, M. Babaee, M. Brandt, and A. Subic: Feasible Build Orientations for Self-Supporting Fused Deposition Manufacture: A Novel Approach to Space-Filling Tesselated Geometries, Advanced Materials Research, 633, 148-168, 2013. K. Thrimurthulu, P. M. Pandey, and N. V. Reddy: Optimum part deposition orientation in fused deposition modeling, International Journal of Machine Tools and Manufacture 44.6: 585-594, 2004.
11/28/2013 • 53 minutes, 27 seconds
Injektoren
Carmen Straub modelliert und simuliert den Einspritzvorgang im Motorraum durch Injektoren. Dabei hat sie das Modell und die numerischen Verfahren auf Stabilität untersucht indem sie numerische Lösungen mit einer analytischen Lösung verglich. Um den Einsatz neuer Forschungsergebnisse um Large-Eddy-Simulationen zu untersuchen hat sie das Modell mit einem neuen Softwarepaket gekoppelt. Diese Ergebnisse wurden mit einem echten Einspritzvorgang verglichen. Dabei hat sie auch viel mit Ingenieuren in Deutschland und USA zusammengearbeitet und Forschung in der Industrie kennengelernt, und erzählt uns davon im Gespräch mit Gudrun Thäter. Literatur und Zusatzinformationen F. Fischer, B. Heine, and C. Tropea: Primary Breakup Model Considering the Spray Core Development, Shaker, 2011. W. Waidmann, A. Boemer, and M. Braun: Adjustment and Verification of Model Parameters for Diesel Injection CFD Simulation, SAE Technical Paper 2006-01-0241, 2006. H. Pitsch: Large-eddy simulation of turbulent combustion, Annu. Rev. Fluid Mech. 38 (2006): 453-482. M. Boileau, G. Staffelbach, B. Cuenot, T. Poinsot, and C. Bérat : LES of an ignition sequence in a gas turbine engine, Combustion and Flame 154.1 (2008): 2-22. Charles: high-fidelity compressible flow solver.
11/21/2013 • 29 minutes, 17 seconds
Ad-hoc Netzwerke
Leonid Chaichenets hat Ad-hoc Netze modelliert, und dadurch die Optimierung der erfolgreichen Übertragungen ermöglicht. Er erklärt im Gespräch mit Sebastian Ritterbusch wie mit Verfahren aus der stochastischen Geometrie in Zukunft bessere Kommunikationsnetze für Notkräfte entwickelt werden können. Ein besonderes Merkmal der Netze ist, dass einzelne Teilnehmer nichts über ihre Kommunikationspartner wissen. Wie soll es funktionieren, dass nicht alle versuchen gleichzeitig zu senden? Mit einer geschickten Aloha Strategie kann man alleine aus dem Verhalten der Teilnehmer die Qualität des Netzes im Voraus berechnen und damit die Gesamtleistung optimieren. Literatur und Zusatzinformationen Vortrag: Communication in wireless ad hoc networks zur Summer School "Zufall in Physik und Mathematik: Vom Quantenchaos zur freien Wahrscheinlichkeit", Bielefeld, 5. - 17. August 2013. R. Tanbourgi, H. Jäkel, L. Chaichenets, F. Jondral: Interference and Throughput in Aloha-based Ad Hoc Networks with Isotropic Node Distribution, IEEE International Symposium on Information Theory 2012, Cambridge, MA, USA, July 1 - 7, 2012. Baccelli, François and Bartłomiej Błaszczyszyn: Stochastic Geometry and Wireless Networks Volume 1: THEORY, volume 3 of Foundation and trends in networking. NOW Publishers, Delft, 2009. Baccelli, François and Bartłomiej Błaszczyszyn: Stochastic Geometry and Wireless Networks Volume 2: APPLICATIONS, volume 4 of Foundation and trends in networking. NOW Publishers, Delft, 2009.
11/14/2013 • 1 hour, 1 minute, 14 seconds
Computertomographie
Yuemin Liang hat Methoden entwickelt, mit denen Bewegungen während einer Computertomographie herausgerechnet werden können, um bessere Rekonstruktionen zu erhalten. Dafür verwendet sie Marker, die im Sinogramm verräterische Spuren zeigen, wenn es zu Bewegungen gekommen ist, kann so die ungewollten Bewegungen zum Teil kompensieren, und erklärt das Ganze im Gespräch mit Sebastian Ritterbusch. Literatur und Zusatzinformationen W. Lu, P. J. Parikh, J. P. Hubenschmidt, D. G. Politte, B. R. Whiting, J. D. Bradley, And D. A. Low: Reduction of motion blurring artifacts using respiratory gated CT in sinogram space- a quantitative evaluation, Medical physics (2005), 32, 3295. W. Lu, and T. R. Mackie: Tomographic motion detection and correction directly in sinogram space, Physics in medicine and biology (2002) 47.8, 1267. A. C. Kak, and M. Slaney: Principles of computerized tomographic imaging, Vol. 33. Siam, 1988.
11/7/2013 • 35 minutes, 38 seconds
Pumpspeicherkraftwerke
Julia Dickmann optimiert den Betrieb von Pumpspeicherkraftwerken ohne die Zukunft der Strompreise und Regenfälle genau zu kennen. Dazu geht sie im Gespräch mit Sebastian Ritterbusch auf Zeitreise aus der Zukunft in die Gegenwart, und berechnet so mit Topologiematrix und Simplex-Verfahren optimale Steuerungsstrategien auf Basis von statistischen Modellen. Literatur und Zusatzinformationen Dimitri P. Bertsekas: Dynamic programming and optimal control, Vol. 1., Athena Scientific, 2005. C. Cervellera, Cristiano, V. C. P. Chen, and A. Wen: Optimization of a large-scale water reservoir network by stochastic dynamic programming with efficient state space discretization, European Journal of Operational Research 171.3: 1139-1151, 2006. B. Falguni, and D. N. Kumar: Stochastic Linear Programming for Optimal Reservoir Operation: A Case Study, Proc. of International Conference on Large Scale Water Resources Development in Developing Countries: New Dimensions of Prospects and Problems, Kathmandu, Nepal, 1997.
10/31/2013 • 42 minutes, 44 seconds
Erdölsuche
Jörg Bäuerle hat ein Verfahren zur verbesserten Erdölsuche erforscht, das passiv die elektromagnetische Ausstrahlung von Erdölfeldern auswerten kann. Wie im Gespräch mit Sebastian Ritterbusch zu hören, steckt darin viel Mathematik, Freude über L-Kurven und nicht nur ein inverses Problem. Literatur und Zusatzinformationen Poster von J. Bäuerle, A. Helfrich-Schkarbanenko, A. Sommer: Passive Erdölexploration aus der Luft, Young Investigator Network - Day, Karlsruhe, Oktober, 2013. A. Helfrich-Schkarbanenko: Elektrische Impedanztomografie in der Geoelektrik, Dissertation am Karlsruher Institut für Technologie, 2011. M. Hanke: Mathematische Grundlagen der Impedanztomographie, Skriptum, Johannes Gutenberg-Universität, 2004. W. R. B. Lionheart: EIT reconstruction algorithms: pitfalls, challenges and recent developments, arXiv preprint physics/0310151, 2003. P. C. Hansen: The L-curve and its use in the numerical treatment of inverse problems, IMM, Department of Mathematical Modelling, Technical University of Denmark, 1999.
10/24/2013 • 1 hour, 49 seconds
Unsichtbarkeit
Andreas Helfrich-Schkarbanenko befasst sich mit der mathematischen Beschreibung der Unsichtbarkeit, Metamaterialien und berichtet im Gespräch mit Sebastian Ritterbusch über Simulationsexperimente zu akustischen und elektromagnetischen Tarnkappen. Zusammen mit Muamer Kadic und Philipp Klas passten sie eine Tarnkappe an ein inhomogenes Hintergrundmedium an. Literatur und Zusatzinformationen Übersichtsposter: Akustische Tarnkappe im inhomogenen Hintergrundmedium D. Torrent and J. Sanchez-Dehesa: Acoustic cloaking in two dimensions: a feasible approach, New Journal of Physics 10 (2008). S. Guenneau, R. C. McPhedran, S. Enoch, A. B. Movchan, M. Farhat and N. P. Nicorovici: The colours of cloaks, Journal of Optics (2010). J. B. Pendry, D. Schurig and D. R. Smith: Controlling electromagnetic fields, Science 312, 1780 (2006). K. Astala, M. Lassas, L. Paivarinta: The borderlines of the invisibility and visibility for Calderon's inverse problem, arXiv preprint arXiv:1109.2749 (2011).
10/17/2013 • 42 minutes, 23 seconds
Die Aorta-Challenge
Thomas Henn spricht mit Sebastian Ritterbusch über seine Blutflusssimulationen in der Aorta, die mathematische Beschreibung, wie man über ein Becken geht, numerische Simulationen auf einem Großrechner und über den internationalen Vergleich der Ergebnisse. Literatur und Zusatzinformationen LNCS 7746: Statistical Atlases and Computational Models of the Heart. Imaging and Modelling Challenges, Third International Workshop, STACOM 2012, Held in Conjunction with MICCAI 2012, Nice, France, October 5, 2012. M. J. Krause: Fluid flow simulation and optimisation with lattice Boltzmann methods on high performance computers: application to the human respiratory system, Dissertation at the Karlsruhe Institute of Technology, 2010. OpenLB - Open Source Lattice Boltzmann Code
10/10/2013 • 36 minutes, 8 seconds
Mathematische Modellbildung
Gudrun Thäter spricht mit Sebastian Ritterbusch über Mathematische Modellbildung und die zugehörige Vorlesung im Studium, über überraschende Ventile, dem Stau aus dem Nichts und Fußgängersimulationen. Literatur und Zusatzinformationen H.-J. Bungartz, S. Zimmer, M. Buchholz, D. Pflüger: Modellbildung und Simulation: Eine anwendungsorientierte Einführung, Springer Verlag, 2013. F. Haußer, Y. Luchko: Mathematische Modellierung mit MATLAB: Eine praxisorientierte Einführung, Spektrum Verlag, 2010. S. Howison: Practical Applied Mathematics- Modelling, Analysis, Approximation, Cambridge University Press, 2005. M. Braun: Differentialgleichungen und ihre Anwendungen, Springer Verlag, 1991.