Tre forskere fra Institut for Matematik bliver forskningsledere med Sapere Aude-bevillinger
Henrik Garde, Alexandra-Iulia Otiman og Rune Nyrup modtager hver en forskningslederbevilling fra Danmarks Frie Forskningsfond (DFF).
De tre skal nu være ledere for deres egne forskningsgrupper. Henrik Garde er lektor på Institut for Matematik, Rune Nyrup er lektor ved Center for Videnskabsstudier, og Alexandra-Iulia Otiman er adjunkt på AIAS og tenure track adjunkt på Institut for Matematik.
"Calderóns problem er et berømt og særdeles svært matematisk problem. Fra elektriske målinger på overfladen af et objekt (eller en person) ønskes hele den indre rumlige struktur rekonstrueret som et tredimensionelt billede. Hvis der kun måles på en lille del af objektets overflade, samt at en kompleks funktion skal bestemmes med information om både ledningsevne og permittivitet, eksisterer endnu ingen matematisk bevist rekonstruktionsmetode.
Projektet har en helt ny indfaldsvinkel, ved at transformere måledata med såkaldt funktionalkalkule. Dette skal bruges til at forbedre kontinuitetsegenskaber og mindske ikke-linearitet, hvilket er barrierer for at bevise anvendeligheden af optimeringsbaserede metoder. Herudover undersøges det, hvordan og i hvilken grad, geometrisk form og position for lokale komplekse ændringer kan bestemmes fra disse overflademålinger."
"Mit projekt vil føre til teoretiske fremskridt inden for den matematiske gren differential geometri, og mere præcist sigter det mod at forstå formen af nogle specielle rum i vilkårlige høje dimensioner ved at bruge en særlig måde at måle afstande på. At beskrive formen af et rum, som er mere end fire dimensioner er ikke en nem opgave. For at opnå dette vil jeg sammen med mit team bruge abstrakte teorier fra forskellige sider og grene af matematikken, som vil producere de passende værktøjer og rammer."
"Mit projekt handler om den rolle, forklaringer spiller i forhold til at sikre, at kunstig intelligens anvendes på en etisk ansvarlig måde. Specifikt vil jeg undersøge fordele og ulemper ved det, der kaldes ‘Forklarlig Kunstig Intelligens’, dvs. forskellige teknologier til at generere forklaringer på beslutninger, der træffes ved hjælp af kunstig intelligens. Sådanne forklaringer er vigtige for at gøre folk i stand til at forstå og derved forholde sig kritisk til de kunstigt intelligente systemer, der i stigende grad påvirker vores hverdag. Men de risikerer også at skabe en falsk følelse af forståelse, som kan udnyttes til at vildlede eller endog manipulere. For at løse dette dilemma vil projektet derfor udvikle både filosofiske teorier og praktiske retningslinjer for, hvordan man kan skelne mellem etisk gavnlige og etisk problematiske forklaringer."