Logotipo librería Marcial Pons
Riesgos del uso de algoritmos en el diagnóstico y en la investigación biomédica

Riesgos del uso de algoritmos en el diagnóstico y en la investigación biomédica

  • ISBN: 9788429027969
  • Editorial: Editorial Reus
  • Lugar de la edición: Madrid. España
  • Colección: Derecho de Daños
  • Encuadernación: Rústica
  • Medidas: 24 cm
  • Nº Pág.: 302
  • Idiomas: Español

Papel: Rústica
35,00 €
Stock en librería. Envío en 24/48 horas

Resumen

El trabajo que se recoge en esta monografía ha sido galardonado con el VIII Premio de Derecho Sanitario, lo que implica el aval dado por un jurado de prestigiosos cono­cedores de la materia que han considerado su 'gran utilidad técnica, al abordar de­talladamente el marco normativo actual y la problemática jurídica, técnica y médica que conlleva, así como las propuestas alternativas en su regulación'.

A lo largo de sus páginas se aborda el riesgo inherente al cambio de paradigma al que el jurista y el sanitario se enfrentan a consecuencia del uso de algoritmos en el diagnóstico y en la investigación biomédica. El lector encontrará un acercamiento para legos a la inteligencia artificial, y partiendo de los vertiginosos avances tecnoló­gicos se adentrará en los retos que al Derecho plantea el tratamiento de datos ma­sivos con fines médicos por medio de inteligencia artificial, teniendo en cuenta que, caracteres como la autonomía y la opacidad son propios de una inteligencia artificial que ya está en la consulta, en el quirófano y en el laboratorio.

En este escenario, la toma de decisiones médicas nos suscita cuestiones como: ¿Son los macrodatos neutrales?; ¿Son legítimas las decisiones automatizadas en el ámbito sanitario?; ¿Existe el derecho del paciente a conocer la lógica decisional del algoritmo?; ¿Cuál es el impacto de la IA en los derechos del paciente?; ¿Qué implica­ciones tendrá la IA como nuevo estado de la ciencia?; ¿Cómo actuará la autonomía de la máquina supervisada por un humano?, entre muchas otras. Con relación a la investigación biomédica se abordan variadas cuestiones como los sutiles límites entre la anonimización y la seudonimización, el uso secundario de los datos de salud con fines de investigación y las novedades que trae consigo el Espacio Europeo de datos relativos a la salud. Una mirada hacia el horizonte, casi como epílogo, obliga al planteamiento de modelos de regulación de la IA que acompasen el Derecho, la Medicina y la Tecnología.

PRÓLOGO
I. NUEVO PARADIGMA EN LA SALUD

II. IA Y BIG DATA BAJO LA ATENTA MIRADA DEL DERECHO

a. IA: un acercamiento para legos

i. ¿Ha llegado la hora de regular la IA?

ii. Una aproximación alejada -por ahora- de la ciencia ficción

iii. IA explicada por jurista y para juristas

iv. El enfoque del riesgo y el potencial lesivo

v. IA en salud

vi. IA, robots y salud

b. La IA se nutre de datos

i. ¿Cómo y para qué usa los datos la IA?

ii. El dato personal

iii. El dato personal de salud

iv. El dato genético en cuanto revelador de la salud

a. ¿Por qué los datos genéticos son únicos?

b. La dimensión personal y familiar de la información genética

v. El ciclo de tratamiento de datos por un sistema de IA

c. ¿Están nuestros datos en buenas manos?

i. Los logros y la torpeza del algoritmo

ii. El tratamiento de datos estructurados y no estructurados

iii. Big data e IA, todavía incipientes

iv. Del dato al macrodato

v. Datos personales de salud: no es lo que parece

a. Datos no personales que identifican a la persona

b. Tratar datos de salud sin tratar datos de salud

vi. Bases de legitimación para tratar datos personales de salud

vii. Tratar información “por si acaso”

d. El sesgo del algoritmo y su opacidad

i. ¿Son los macrodatos neutrales?

ii. Sesgos propios de humanos… y de máquinas

iii. ¿Cuándo surge el sesgo en la IA?

iv. La opacidad del algoritmo

a. El valor de la transparencia

b. La IA de caja negra

v. El algoritmo, la equidad y la discriminación

a.¿Es la IA imparcial?

b. Un caso de discriminación algorítmica: COMPASS

vi. El código fuente o la dictadura de la máquina

a. La necesaria accesibilidad al código fuente

b. Un caso de solicitud de acceso al código fuente: el bono social

vii. ¿Se puede confiar en una IA no transparente?

e. Un caso de confianza ciega en la IA: VioGén

III. IA Y TOMA DE DECISIONES SANITARIAS
a. Entre perfiles y decisiones sanitarias tomadas por máquinas

i. El perfilado como punto de partida para tomar decisiones

a. ¿Qué es y qué implica el perfilado? Antecedentes

b. Los riesgos del perfilado

ii. Decisiones únicamente automatizadas

a. La afectación significativa

b. ¿Son legítimas las decisiones automatizadas en el ámbito sanitario?....

c. El consentimiento explícito

d. La intervención humana

e. La evaluación de impacto como garantía

b. Derechos de los pacientes en el tratamiento de datos por IA

i. ¿Existe un derecho a ser informado de la lógica del proceso decisional?

a. ¿Derecho a la explicabilidad o a la interpretabilidad?

1. ¿Cabe el ejercicio del derecho de acceso a la lógica decisional?

2. La explicabilidad como trasunto de la transparencia

3. El derecho a la información clínica y la lógica decisional

b. ¿Es posible conocer la lógica decisional de la IA?

c. Un caso de opacidad y de falta de explicabilidad: SyRI

d. La información y la fatiga informativa

ii. El impacto de la IA en los derechos del interesado

a. Derecho de acceso

b. Derecho de supresión y de rectificación

c. Bloqueo

d. Oposición

e. Portabilidad

f. Limitación

g. Revocación

c. ¿IA autónoma o apoyo a las decisiones del profesional?

i. IA como nuevo estado de la ciencia

ii. IA como apoyo a la toma de decisiones

iii. El riesgo de la toma de decisiones a ciegas por el profesional

iv. Entre el humano y la máquina: la autonomía supervisada

IV. IA E INVESTIGACIÓN BIOMÉDICA
a. Datos personales e investigación científica

i. La investigación biomédica

ii. Hacia la economía de los datos

iii. La eterna discusión de la propiedad de los datos personales

iv. El Open Data en salud

v. ¿Qué salto imprime big data en la investigación biomédica?

vi. Las limitaciones de big data: no es oro todo lo que reluce

b. La insoportable levedad de la anonimización y la apariencia de la seudonimización

i. Cuando los límites son sutiles

ii. La seudonimización y la persona identificable

iii. El dato anonimizado como no personal

iv. El riesgo de la reidentificación

v. Un caso concreto: Proyecto big data para la prevención de epidemias y pandemias ¿están los datos realmente anononimizados?

vi. El principio de responsabilidad proactiva y la K-anonimidad

c. Datos personales con fines de investigación biomédica: en particular, el uso secundario

i. Uno para todos y todos para uno –con prudencia-

ii. De dónde venimos

iii. El RGPD: un régimen más abierto, pero indeterminado

iv. La LOPDGD: la concreción

a. ¿Una esperanza casi truncada?

b. La admisibilidad del consentimiento para áreas generales vinculadas a una especialidad médica o investigadora

c. La salud pública y el interés general como habilitación a la investigación sin consentimiento

d. La reutilización de datos para fines compatibles

e. La investigación con datos personales seudonimizados

f. Las garantías técnicas necesarias para el tratamiento de datos de salud con fines de investigación

v. Límites al ejercicio de los derechos en beneficio de la investigación

vi. El espacio de datos relativos a la salud

a. La estrategia europea en la creación de espacios de datos

b. La Gobernanza Europea de Datos

c. El Espacio Europeo de Datos Sanitarios (EEDS)

vii. ¿Un cambio de paradigma?

V. PRESENTE Y FUTURO. REGULANDO LA IA Y LOS DATOS
a. La tensión entre el marco regulador de la IA y de los datos

b. ¿Soft law como solución o como problema?

VI. BIBLIOGRAFÍA

Prólogo de Domingo Bello Janeiro.

Resumen

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitar la navegación. Si continúa navegando consideramos que acepta su uso.

aceptar más información