
{"id":17021,"date":"2023-01-31T17:37:07","date_gmt":"2023-01-31T15:37:07","guid":{"rendered":"https:\/\/ticsalutsocial.atoom.space\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/"},"modified":"2023-02-01T11:57:28","modified_gmt":"2023-02-01T09:57:28","slug":"nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial","status":"publish","type":"noticia","link":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/","title":{"rendered":"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial"},"content":{"rendered":"\n<p>El equipo de Inteligencia Artificial de la Fundaci\u00f3n TIC Salud Social ha publicado el Informe sobre Explicabilidad de la Inteligencia Artificial en Salud, en el marco del Programa Salud\/IA de la Generalidad de Catalu\u00f1a. El documento describe los&nbsp;<strong>beneficios del uso de herramientas de explicabilidad<\/strong>&nbsp;en Inteligencia Artificial, y presenta las principales t\u00e9cnicas de explicabilidad de&nbsp;<strong>algoritmos basados en imagen m\u00e9dica digital, datos tabulares y procesamiento de lenguaje natural<\/strong>, con el objetivo de apoyar a las personas involucradas en el desarrollo de algoritmos de Inteligencia Artificial en el \u00e1mbito de la salud.<\/p>\n\n\n\n<p>La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado. La autora principal del informe y responsable del \u00c1rea de Inteligencia Artificial de la Fundaci\u00f3n TIC Salud Social,&nbsp;<strong>Susanna Auss\u00f3<\/strong>, explica que \u201c<strong>es capital que los profesionales de la salud comprendan los mecanismos por los que la herramienta de Inteligencia Artificial ha llegado a una predicci\u00f3n. Este conocimiento es esencial para mejorar la confianza de las personas usuarias, ya que les otorgan herramientas para comprobar si la respuesta se ha basado en criterios de solvencia cl\u00ednica. Existen varios formatos de explicabilidad, y es necesario acordar con los expertos cu\u00e1l es el formato m\u00e1s adecuado en cada caso. Normalmente se trata de formatos muy visuales que pueden combinarse en funci\u00f3n de las necesidades<\/strong>\u201d.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>\u00bfQu\u00e9 puede aportar la Inteligencia Artificial Explicable?<\/strong><\/h2>\n\n\n\n<p>El uso de la Inteligencia Artificial en el \u00e1mbito de la salud est\u00e1 en constante crecimiento, gracias a la disponibilidad de registros electr\u00f3nicos de salud y la gran diversidad de datos relacionados, as\u00ed como al gran potencial de esta tecnolog\u00eda para mejorar la salud y el bienestar de las personas.<\/p>\n\n\n\n<p>Algunos centros de salud hacen uso de la Inteligencia Artificial para apoyar principalmente el diagn\u00f3stico, pron\u00f3stico y tratamiento de determinadas enfermedades. De hecho,&nbsp;<a href=\"https:\/\/ticsalutsocial.atoom.space\/noticia\/lobservatori-dia-en-salut-identifica-prop-dun-centenar-dalgorismes-dintelligencia-artificial-als-centres-del-siscat-i-de-recerca-de-catalunya\/\" target=\"_blank\" rel=\"noreferrer noopener\">el Observatorio de IA en Salud ya ha detectado cerca de 100 algoritmos<\/a>&nbsp;de Inteligencia Artificial que est\u00e1n en fase de desarrollo o se est\u00e1n utilizando de forma controlada.<\/p>\n\n\n\n<p>Esta tecnolog\u00eda se utiliza como herramienta de apoyo para la toma de decisiones, puesto que el personal sanitario tiene la \u00faltima palabra y toma la decisi\u00f3n final. Sin embargo, es importante que&nbsp;<strong>esta decisi\u00f3n se adopte desde el conocimiento que aportan las herramientas de explicabilidad<\/strong>. Sin estas herramientas, los modelos de Inteligencia Artificial act\u00faan como una \u201ccaja negra\u201d que no permiten entender qu\u00e9 ocurre; esta problem\u00e1tica es la que precisamente quiere solucionar la Inteligencia Artificial Explicable.<\/p>\n\n\n\n<p>Para poder ser capaz de explicar el modelo de aprendizaje autom\u00e1tico en t\u00e9rminos humanos,&nbsp;<strong>la Inteligencia Artificial Explicable debe dar respuesta a aspectos relacionados con la correcci\u00f3n, robustez, sesgo, mejora, transferibilidad y comprensi\u00f3n humana del modelo<\/strong>. De esta forma, se consigue mejorar la confianza de los profesionales, ya que podr\u00e1n entender las limitaciones y dificultades, y simplificar y relacionar con conceptos m\u00e1s f\u00e1ciles; implicar a las partes interesadas para construir un modelo intuitivo entendedor; y realizar mejores modelos eliminando los errores e identificando escenarios injustos producidos por posibles sesgos.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Taxonom\u00eda de la Inteligencia Artificial Explicable<\/strong><\/h2>\n\n\n\n<p>Ante la falta de consenso en la clasificaci\u00f3n de las t\u00e9cnicas que siguen a los modelos de Inteligencia Artificial Explicable, el informe describe diferentes modelos de taxonom\u00eda: explicabilidad intr\u00ednseca y post hoc; explicabilidad global y local; modelos transparentes y opacos; y t\u00e9cnicas agn\u00f3sticas en el modelo y dependientes del modelo.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Explicabilidad de algoritmos basados en imagen m\u00e9dica digital, datos tabulares i procesamiento de lenguaje natural<\/strong><\/h2>\n\n\n\n<p>El informe recoge en tres cap\u00edtulos espec\u00edficos los distintos m\u00e9todos de explicabilidad seg\u00fan el origen de los datos. En primer lugar, expone los m\u00e9todos de explicaci\u00f3n de los algoritmos basados en imagen m\u00e9dica digital, como por ejemplo, las radiograf\u00edas o resonancias magn\u00e9ticas, entre otros. Los m\u00e9todos principales son el CAM (mapeo de activaci\u00f3n de clase), GRAD-CAM (mapeo de activaci\u00f3n de clase ponderado por gradiente), LRP (propagaci\u00f3n de la relevancia por capas), LIME (explicaciones agn\u00f3sticas al modelo interpretables a nivel local ), y SHAP (explicaciones aditivas de Shapley).<\/p>\n\n\n\n<p>En segundo lugar, describe la explicabilidad de los algoritmos basados en datos tabulares; es decir, en variables que proceden por ejemplo de anal\u00edticas, datos \u00f3micos o constantes vitales, hasta datos de gesti\u00f3n hospitalaria, entre otros. En este caso, las t\u00e9cnicas presentadas son PDP (gr\u00e1fico de dependencia parcial), ICE (expectativa condicional individual), C-ICE (ICE centrado), counterfactual explanations, LIME (explicaciones agn\u00f3sticas al modelo interpretables a nivel local), anchors, y SHAP (explicaciones aditivas de Shapley).<\/p>\n\n\n\n<p>Por \u00faltimo, el documento aborda la explicabilidad de algoritmos basados en el procesamiento de lenguaje natural, que permite, por ejemplo, extraer informaci\u00f3n estructurada a partir de un informe con texto libre con datos de diagn\u00f3sticos, tratamientos o seguimiento. Las t\u00e9cnicas especificadas para este tipo de explicabilidad son SHAP (explicaciones aditivas de Shapley), GbSA (an\u00e1lisis de la sensibilidad basada en gradientes), LRP (propagaci\u00f3n de la relevancia por capas) y LIME (explicaciones agn\u00f3sticas al modelo interpretables a nivel local).<\/p>\n","protected":false},"author":12,"featured_media":20777,"menu_order":0,"template":"","meta":{"_acf_changed":false,"inline_featured_image":false},"etiqueta":[],"tipus":[879],"topic":[],"class_list":["post-17021","noticia","type-noticia","status-publish","has-post-thumbnail","hentry","tipus-inteligencia-artificial"],"acf":{"finalitzat":false,"tipus_plantilla":"objectius","template_objectius":{"cont_principal":"","imatge":16658,"cont_seguent":{"titol":"","contingut":""},"seccio_llistat":{"titol":"","llistat":false},"objectius":{"titol":"","objectius":false},"documents":false},"autor":"","imatge":false,"textos_destacats":[{"texte":"La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado."}],"documents":[{"titol_doc":"Descarga el Informe sobre la Explicabilidad en la Inteligencia Artificial","document":{"ID":17023,"id":17023,"title":"230226-Informe-Explicabilitat","filename":"230226-Informe-Explicabilitat-1.pdf","filesize":5140876,"url":"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/230226-Informe-Explicabilitat-1.pdf","link":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/230226-informe-explicabilitat\/","alt":"","author":"3","description":"","caption":"","name":"230226-informe-explicabilitat","status":"inherit","uploaded_to":17021,"date":"2023-02-01 09:56:08","modified":"2023-02-01 09:56:08","menu_order":0,"mime_type":"application\/pdf","type":"application","subtype":"pdf","icon":"https:\/\/ticsalutsocial.atoom.space\/wp-includes\/images\/media\/document.png"}}]},"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.1.1 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial - Fundaci\u00f3 TIC Salut i Social<\/title>\n<meta name=\"description\" content=\"La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/\" \/>\n<meta property=\"og:locale\" content=\"es_ES\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial - Fundaci\u00f3 TIC Salut i Social\" \/>\n<meta property=\"og:description\" content=\"La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/\" \/>\n<meta property=\"og:site_name\" content=\"Fundaci\u00f3 TIC Salut i Social\" \/>\n<meta property=\"article:modified_time\" content=\"2023-02-01T09:57:28+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1920\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:label1\" content=\"Tiempo de lectura\" \/>\n\t<meta name=\"twitter:data1\" content=\"4 minutos\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"WebPage\",\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/\",\"url\":\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/\",\"name\":\"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial - Fundaci\u00f3 TIC Salut i Social\",\"isPartOf\":{\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg\",\"datePublished\":\"2023-01-31T15:37:07+00:00\",\"dateModified\":\"2023-02-01T09:57:28+00:00\",\"description\":\"La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado.\",\"breadcrumb\":{\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#breadcrumb\"},\"inLanguage\":\"es\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"es\",\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#primaryimage\",\"url\":\"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg\",\"contentUrl\":\"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg\",\"width\":2560,\"height\":1920,\"caption\":\"Informe sobre Explicabilitat de la Intel\u00b7lig\u00e8ncia Artificial en Salut\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Inici\",\"item\":\"https:\/\/ticsalutsocial.atoom.space\/es\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/ticsalutsocial.atoom.space\/es\/#website\",\"url\":\"https:\/\/ticsalutsocial.atoom.space\/es\/\",\"name\":\"Fundaci\u00f3 TIC Salut i Social\",\"description\":\"\",\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/ticsalutsocial.atoom.space\/es\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"es\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial - Fundaci\u00f3 TIC Salut i Social","description":"La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/","og_locale":"es_ES","og_type":"article","og_title":"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial - Fundaci\u00f3 TIC Salut i Social","og_description":"La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado.","og_url":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/","og_site_name":"Fundaci\u00f3 TIC Salut i Social","article_modified_time":"2023-02-01T09:57:28+00:00","og_image":[{"width":2560,"height":1920,"url":"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg","type":"image\/jpeg"}],"twitter_card":"summary_large_image","twitter_misc":{"Tiempo de lectura":"4 minutos"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"WebPage","@id":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/","url":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/","name":"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial - Fundaci\u00f3 TIC Salut i Social","isPartOf":{"@id":"https:\/\/ticsalutsocial.atoom.space\/es\/#website"},"primaryImageOfPage":{"@id":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#primaryimage"},"image":{"@id":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#primaryimage"},"thumbnailUrl":"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg","datePublished":"2023-01-31T15:37:07+00:00","dateModified":"2023-02-01T09:57:28+00:00","description":"La Inteligencia Artificial Explicable permite a los usuarios entender por qu\u00e9 un algoritmo ha dado un determinado resultado.","breadcrumb":{"@id":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#breadcrumb"},"inLanguage":"es","potentialAction":[{"@type":"ReadAction","target":["https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/"]}]},{"@type":"ImageObject","inLanguage":"es","@id":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#primaryimage","url":"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg","contentUrl":"https:\/\/ticsalutsocial.atoom.space\/wp-content\/uploads\/2023\/01\/Informe-explicabilitat.jpg","width":2560,"height":1920,"caption":"Informe sobre Explicabilitat de la Intel\u00b7lig\u00e8ncia Artificial en Salut"},{"@type":"BreadcrumbList","@id":"https:\/\/ticsalutsocial.atoom.space\/es\/noticia\/nou-informe-sobre-lexplicabilitat-en-la-intelligencia-artificial\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Inici","item":"https:\/\/ticsalutsocial.atoom.space\/es\/"},{"@type":"ListItem","position":2,"name":"Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial"}]},{"@type":"WebSite","@id":"https:\/\/ticsalutsocial.atoom.space\/es\/#website","url":"https:\/\/ticsalutsocial.atoom.space\/es\/","name":"Fundaci\u00f3 TIC Salut i Social","description":"","potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/ticsalutsocial.atoom.space\/es\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"es"}]}},"_links":{"self":[{"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/noticia\/17021","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/noticia"}],"about":[{"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/types\/noticia"}],"author":[{"embeddable":true,"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/users\/12"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/media\/20777"}],"wp:attachment":[{"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/media?parent=17021"}],"wp:term":[{"taxonomy":"etiqueta","embeddable":true,"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/etiqueta?post=17021"},{"taxonomy":"tipus","embeddable":true,"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/tipus?post=17021"},{"taxonomy":"topic","embeddable":true,"href":"https:\/\/ticsalutsocial.atoom.space\/es\/wp-json\/wp\/v2\/topic?post=17021"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}