🔒 Nie wyjaśniajmy wizyjnych modeli AI w oderwaniu od kontekstu

Czy fakt, że stetoskop jest blisko jakiejś osoby, czyni ją lekarzem? I jakie to ma znaczenie dla objaśniania decyzji podejmowanych przez modele AI?

Artykuł objaśnia publikację „Position: Do Not Explain Vision Models Without Context”, Pauliny Tomaszewskiej i Przemysława Biecka (można ją przeczytać TUTAJ)

To w uproszczeniu zależy od tego, jakie są szczegółowe relacje przestrzenne pomiędzy osobą a stetoskopem, czyli co w tym przypadku oznacza sformułowanie, że „coś jest blisko czegoś”.

Autor

  • Paulina Tomaszewska

    Doktorantka na Politechnice Warszawskiej, specjalizująca się w Deep Learning, cyfrowej patologii, wyjaśnialnej sztucznej inteligencji (xAI) oraz kontekście przestrzennym w obrazach

    View all posts

Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line

29,99 zł miesięcznie

Wykup dostęp

Paulina Tomaszewska

Doktorantka na Politechnice Warszawskiej, specjalizująca się w Deep Learning, cyfrowej patologii, wyjaśnialnej sztucznej inteligencji (xAI) oraz kontekście przestrzennym w obrazach

Podziel się

Może Cię zainteresować