Vanligvis studerer vi maskinlæringsmodeller hver for seg selv. Kan et AI-systemer som består av mange kompliserte maskinlæringsmodeller, og som tilsynelatende blir bedre ved trening, faktisk få algoritmer som blir dårligere? Dette svarer vi på i denne podcasten.
Podcasten er en del av en serie hvor vi tar for oss artikler fra konferansen NeurIPS 2021, og denne episoden handler om «Fixes That Fail: Self-Defeating Improvements in Machine-Learning Systems» av Ruihan Wu, Chuan Guo, Awni Hannun og Laurens van der Maaten.
Podkasten Kunstig intelligens med Morten Goodwin er innebygd på denne siden fra en åpen RSS feed. Alle filer, beskrivelser, illustrasjoner og andre metadata fra RSS-feeden tilhører podcasteieren og er ikke tilknyttet eller validert av Podplay.