Uniform Approximation of the Smallest Eigenvalue of a Large Parameter-Dependent Hermitian Matrix
Online
Dieses Webinar ist Teil der Webinarreihe «Digital heute» mit Fokus auf die Digitalisierung unseres Alltags. Die Webinare beleuchten die Digitalisierung aus unterschiedlichen Blickwinkeln und vermitteln nützliche Handlungsempfehlungen im Umgang mit digitalen und virtuellen Medien sowie Online-Plattformen und KI.
Sogenannte KI-Chatbots, wie ChatGPT und Co., sind auf Text basierte Dialogsysteme, die eine Interaktion mit einem technischen System erlauben. Sie stellen einen enormen Fortschritt der künstlichen Intelligenz (KI) dar. Aber wie haben Forschende und Ingenieure diesen Schritt geschafft?
Dahinter steckt eine Mischung aus neuen Algorithmen, enormen Datensätzen und gigantischer Rechenleistung.
Erfahren Sie von Prof. Dr. David Belius die jüngste Geschichte der KI-Chatbots und was «Large Language Models» (grosse Sprachmodelle) sind, auf denen sie beruhen. Er erklärt Ihnen die Funktions- und Konstruktionsweise der KI-Chatbots auf eine für Laien verständliche Art und Weise.
Nach dem Webinar werden Sie verstehen, wieso die zurzeit grösste Schranke der künstlichen Intelligenz - ihre Anfälligkeit für «Halluzinationen» - eine natürliche Konsequenz ihrer Konstruktionsweise ist.
Nehmen Sie an diesem spannenden Webinar teil, blicken Sie hinter die Kulissen der künstlichen Intelligenz und erfahren Sie, auf welchen Prinzipien die KI-Chatbots beruhen.
Sie interessieren sich für weitere Veranstaltungen der Uni60+? Das vollständige Veranstaltungsprogramm finden Sie unter: fernuni.ch/uni60plus
Prof. Dr. David Belius ist Mathematiker und seit August 2023 als Assistenzprofessor mit Tenure Track an der Fakultät Mathematik und Informatik der FernUni Schweiz tätig. Er hat einen Bachelor- und Master-Abschluss an der Universität Cambridge (UK) erworben und danach an der ETH Zürich promoviert. Anschliessend führte er verschiedene Forschungs- und Lehrtätigkeiten an mehreren namhaften Universitäten im In- und Ausland aus. Seine Forschung konzentriert sich auf die Wahrscheinlichkeitstheorie und verwandte Gebiete, insbesondere die aus der statistischen Physik stammende Spin-Glas-Theorie und die moderne Theorie des maschinellen Lernens.