Investigación traslacional y Medicina Genómica.-I+D en la Industria Farmacéutica

30 de Septiembre 2008

¿Los fármacos son eficaces y seguros?

El principal objetivo de la I+D farmacéutica es desarrollar medicamentos seguros y eficaces que sirvan de herramienta al clínico y mejoren la salud y la calidad de vida de los pacientes. Desarrollar medicamentos, como es sabido, es un proceso largo y costoso, en el que se barajan muchos candidatos que nunca llegan al mercado. Aun así, la eficacia de los que sí llegan es muy desigual, como se ve en datos de diferentes estudios, en los que la eficacia por área terapéutica se estima entre un 25% en Oncología y un 50-80% en otras áreas.

Debido a que durante las fases preclínica y clínica se recogen muchos datos sobre el perfil de toxicidad de los fármacos en desarrollo, podemos decir que todos los que llegan a autorizarse son bastante seguros. Sin embargo, la duración, el coste, el número de pacientes, etc de los ensayos clínicos son parámetros que deben mantenerse en unos niveles razonablemente moderados para no hacer el proceso inviable por largo y costoso.

Por ello, hay varios estudios y meta-análisis que se han ocupado del tema, y estiman que las reacciones adversas medicamentosas causan o contribuyen a alrededor del 5% de las hospitalizaciones.

Esta eficacia y toxicidad desiguales, tienen, claro está, costes en al menos tres planos:

Humano y social: cuyas consecuencias más graves, pero no las únicas, se traducen en un número estimado para EE UU de más de 100.000 muertes anuales

Sanitario: puesto que la toxicidad y la falta de eficacia se traducen en una mayor utilización de recursos y servicios sanitarios, y una mayor carga para el sistema sanitario.

Económico: Todo lo anterior tiene un impacto económico que repercute directa e indirectamente en los presupuestos sanitarios y sociales

A todo lo anterior se une el hecho de que la industria farmacéutica no está siendo ultimamente tan eficaz como al conjunto de la sociedad, y a ella misma, les gustaría a la hora de desarrollar nuevos fármacos que sean más seguros, más eficaces, o atiendan necesidades sanitarias no resueltas.

Datos basados en las diez principales compañías farmacéuticas estadounidenses muestran cómo en el periodo comprendido entre 1992 y 2004 la inversión en I+D se había duplicado, y sin embargo ese aumento de la inversión no se ha visto reflejado en un mayor número de nuevos medicamentos aprobados por la FDA. De manera que en esos mismos 12 años en que la industria aumentó de manera muy importante su inversión en I+D, el número de nuevos medicamentos aprobados cada año se mantuvo constante o incluso descendió.

Este “gap”, este desfase entre el esfuerzo invertido (no sólo económico, sino humano, de medios, etc) y los resultados obtenidos, ha sido uno de los principales motivos que han llevado a la industria farmacéutica a replantearse desde hace unos años su modelo de negocio y de I+D.

Los últimos avances científicos y tecnológicos.-

El segundo gran motor de cambio en el sector farmacéutico viene dado por los vertiginosos avances registrados en el campo del conocimiento y de las tecnologías de análisis a gran escala.

En primer lugar, gracias al Proyecto Genoma Humano (PGH), finalizado en 2003, y a otros grandes proyectos en marcha como HapMap, ENCODE, 1000 genomas,…, conocemos cada vez con mayor detalle nuestro genoma, y las diferencias a nivel genético y molecular entre unos individuos y otros.

En segundo lugar, las plataformas de alto rendimiento y análisis masivo de la secuencia y la expresión génica no han dejado de perfeccionarse, estandarizarse y reducir su coste, haciéndolas más asequibles a más grupos de investigación y permitiendo la obtención de un gran volumen de datos en cada vez menos tiempo y con cada vez menos personal necesario.

Apoyándose en los dos desarrollos anteriores, más recientemente, los estudios de asociación a escala genómica publicados a partir del año pasado han comenzado a revelar las bases genéticas de la susceptibilidad a enfermedades complejas que dependen de la interacción de muchos genes, como la diabetes, el cáncer, la artritis y otras muchas. Gracias a estos estudios, empezamos a disponer de fotos más precisas de los mecanismos moleculares de las enfermedades complejas, así como innumerables nuevas dianas terapéuticas potenciales sobre las que basar el desarrollo de nuevas terapias.

Un ejemplo ilustrativo del avance de las técnicas, en este caso de secuenciación….
El PGH culminó en el 2003, tras de 13 años de trabajo, intervinieron más de 2.800 personas, con un coste 2.700 millones $, participaron 16 instituciones y 6 países. Tan sólo cinco años después, en 2008, la secuencia completa de James Watson, se ha conseguido en tan sólo 4,5 meses de trabajo, en el que han participado 27 investigadores, con un coste de 1,5 millones de $, implicando a 2 instituciones de un solo país.

Hacia la Medicina Individualizada.-

Todo lo anterior ha conducido al espectacular desarrollo de la Farmacogenética y la Farmacogenómica, en los últimos 10 años, para las que hay muchas definiciones, una de ellas según se recoge en un Concept paper de la EMEA, Farmacogenética, es el estudio de la relación entre las variaciones en la secuencia de ADN y la respuesta a fármacos, bases genéticas de las diferentes respuestas de los pacientes a un mismo fármaco y Farmacogenómica, es el estudio de la relación entre las variaciones en las características del ADN y ARN y la respuesta a fármacos, identificación de nuevas dianas terapéuticas mediante herramientas genómicas y que en definitiva consisten en utilizar nuestro conocimiento del genoma para, por una parte, comprender las bases moleculares de la respuesta variable de los pacientes a un mismo tratamiento; y, por otra parte, para identificar nuevas dianas terapéuticas mediante el uso de herramientas genómicas de análisis masivo como microarrays, etc

El grado de conocimiento del genoma y el grado de desarrollo de las técnicas y abordajes como transcriptómica, proteómica, metabolómica, estudios de asociación a escala genómica, biología de sistemas,…etc, nos ponen en una situación inmejorable para perseguir el nuevo paradigma de la medicina que se ha dado en llamar “individualizada”, y que consiste en el desarrollo y aplicación de estrategias de prevención, diagnóstico y tratamiento mejor adaptadas a las particularidades genéticas y moleculares de cada paciente concreto.

El cambio de paradigma consiste, en pasar de la medicina actual, reactiva, curativa y orientada a síntomas, a una medicina individualizada, predictiva, preventiva, y orientada a riesgos, aunque no son rigurosamente excluyentes sino complementarios, y el peso de uno u otro dependerá del estado del arte y del conocimiento en cada patología concreta.

“La era de la genómica individualizada acaba de empezar y sólo tendrá impacto en la medicina clínica y en nuestras vidas cuando un número significativo de genomas diploides completos sean del dominio público.
Estas publicaciones hacen avanzar esta causa, basada en la prometedora tecnología de la secuenciación.“

Dr. J. Craig Venter Abril 2008
 

En palabras de uno de los pioneros y grandes impulsores, desde el sector privado, de la secuenciación del genoma humano, …

Uno de los motivos por los que la era de la MI no ha hecho más que empezar radica en la propia naturaleza del problema al que nos enfrentamos. Existen desde el punto de vista genético, dos tipos de enfermedades. Las monogénicas, un gen, una enfermedad y las de mayor incidencia en la sociedad y más difícil tratamiento, las enf complejas que no dependen de mutaciones o polimorfismos en un único gen, sino que resultan de la influencia combinada del sustrato genético del individuo (con posiblemente decenas de genes distintos implicados) con la de los factores ambientales como la dieta, el ejercicio, etc.

Los estudios de asociación a escala genómica en enf. complejas publicados hasta ahora así lo han confirmado: en enfermedades como la diabetes tipo II existen al menos una docena de genes que influyen de forma moderada en el riesgo de aparición y desarrollo posterior de la enfermedad. Pero las variantes identificadas hasta ahora sólo explican una parte del riesgo de cada individuo

Por tanto, queda mucho por conocer tanto en lo que se refiere a otras variantes genéticas no analizadas aun en este tipo de estudios (variantes número de copia, epigenéticas, etc), como a las interacciones de todas ellas entre sí y con los factores ambientales.

Los biomarcadores.-

Los biomarcadores son una de las piedras angulares de la MI, y se espera que el empleo de las técnicas y abordajes que venimos comentando contribuyan de manera decisiva a acelerar el proceso de identificación, validación, y traslación a la práctica clínica de nuevos biomarcadores. Un biomarcador se define como una característica medible del ADN y/o el ARN que es indicador de un proceso biológico normal, patológico, o de respuesta a una intervención terapéutica o no de otro tipo, puede ser medible mediante técnicas de distinto tipo: inmunohistoquímica, hibridación in situ, microarrays, amplificación de ADN (PCR),…

En la actualidad, empiezan a desarrollarse biomarcadores más sofisticados y basados en firmas genéticas y microarrays, pero en esencia estos biomarcadores no son diferentes de los de uso habitual en el laboratorio clínico desde hace décadas (glucosa, creatinina, etc), se trata de indicadores de un proceso fisiológico subyacente que complementan, a veces de forma decisiva, a otros criterios de tipo clínico

Los marcadores pueden clasificarse en tres clases: diagnósticos, que permiten la clasificación de las enfermedades, pronósticos: Mammaprint, que permite la predicción de la aparición y/o desarrollo de la enfermedad, y predictivos: predicción de respuesta a un tratamiento concreto (eficacia): HER2; predicción de toxicidad (ajuste de dosis): GEN TMPT, CYP450 (amplichip).

Ejemplo de marcador diagnóstico es la sucesiva clasificación de las leucemias en subtipos durante el último siglo, lo que ha permitido mejorar el diagnóstico y el tratamiento de las leucemias y linfomas. La progresiva incorporación de nuevos biomarcadores a la clínica hará que muchas enfermedades que hoy se consideran entidades únicas puedan ser clasificadas en subtipos y desarrollar estrategias específicas de tratamiento para cada uno de ellos.

Uno de los grandes problemas de los biomarcadores es que es casi tan difícil descubrirlos y validarlos para uso clínico como lo es con los fármacos. La literatura científica contiene infinidad de marcadores potencialmente útiles, pero muchos de ellos han sido identificados en modelos in vitro o animales, o en muestras humanas de calidad desigual, insuficientes en número, o con datos clínicos y epidemiológicos incompletos.

Por este motivo la validación de un biomarcador y el desarrollo de un test diagnóstico para medirlo, no está exenta de dificultades de todo tipo.

En consecuencia, son muy pocos los biomarcadores que la FDA clasifica como “válidos” definidos como aquellos medibles mediante un test analítico sólido y para el que existe un cuerpo de evidencia científica bien establecido que explica la significación fisiológica, toxicológica, farmacológíca o clínica de los resultados del test.

Por las dificultades a las que hemos aludido, la mayoría de los biomarcadores caen una segunda categoría de “probables”, cuando el grado de evidencia es alto pero no lo bastante sólido.

Existe un listado completo de los biomarcadores que la FDA considera válidos según la definición anterior. En ella se incluye la indicación de los fármacos que contienen una mención a un biomarcador en la ficha técnica. En total, alrededor del 8-10% de los fármacos contienen algún tipo de información PGt en su ficha técnica.

Lo que interesa destacar es que, incluso para aquellos biomarcadores que la propia FDA considera “válidos”, sólo en unos pocos casos la ficha técnica obliga a realizar el test previo a la administración del fármaco correspondiente. En la mayoría de los casos la realización del test únicamente se recomienda, o se proporciona información relativa al biomarcador sin recomendar ni exigir la realización del test. Esto da una idea del desfase que hay entre la ingente cantidad de estudios publicados sobre la biología molecular de muchos marcadores potenciales, y el grado de traslación de este conocimiento al plano regulatorio y de la práctica clínica habitual.

Otro tipo de marcador, en este caso pronóstico, es el basado en la expresión de más de un gen o proteína (en este caso 70 genes), concretamente el Mammaprint, que está siendo validado en un ensayo clínico prospectivo, pero cuya comercialización fue autorizada basada en datos obtenidos de forma retrospectiva analizando muestras tumorales de pacientes con cáncer de mama localizado.

Debido a que todavía no disponemos de datos del ensayo clínico, hay muchas resistencias entre los clínicos a adoptar este tipo de test. Sin embargo, la pregunta que intenta responder es muy ilustrativa de los beneficios que los marcadores moleculares pueden aportar en la individualización de los tratamientos.

Entre las pacientes con cáncer de mama localizado, la cirugía puede ser en una gran proporción curativa y no requerir de tratamiento adicional con quimioterapia para prevenir la recurrencia de la enfermedad. Dada la toxicidad asociada a la quimioterapia, lo ideal sería poder identificar a aquellas pacientes con mayor riesgo de recidiva, y tratarlas sólo a ellas.

Pero los criterios clínico-patológicos como los de St. Gallen discriminan mal entre las pacientes de alto y bajo riesgo, con lo que muchas de estas últimas reciben tratamiento adyuvante de manera innecesaria y por un exceso de precaución debido a la incertidumbre sobre la evolución de su enfermedad.
En cambio, el análisis de la firma genética de estos tumores permite discriminar con mucha mayor claridad, entre los dos grupos de pacientes, basado en el patrón de expresión de tan sólo 70 genes de los más de 21.000 que contiene nuestro genoma.

Otro ejemplo del poder de la farmacogenética en la individualización de la terapia, marcador predictivo, es el de las variantes del gen de la tiopurin-metil-transferasa en el tratamiento de la leucemia linfoblástica aguda (ALL) con mercaptopurina. Desde hace años sabemos que uno de los genes metabolizadores del fármaco (TPMT) existe en distintas versiones en la población: la salvaje (wt), con función normal, y las mutantes (v), con función reducida

La mayoría de nosotros llevamos dos copias del gen normal, pero un pequeño porcentaje lleva una copia normal y una mutada del gen, y presenta una actividad intermedia del enzima TPMT (azul), y un grupo aún más pequeño (alrededor del 2%) es portador de dos copias anómalas del gen TPMT, por lo que su actividad enzimática está muy disminuida.

En el abordaje convencional, todos los pacientes recibirían la misma dosis, por lo que aquellos con una o dos copias mutadas del gen verían muy aumentada su exposición al fármaco y desarrollarían una toxicidad (neutropenia) que puede obligar a interrumpir el tratamiento e incluso desencadenar la muerte del paciente.

En un abordaje más individualizado, el estudio genético previo permitiría identificar de antemano a aquellos pacientes con actividad TPMT reducida y administrarles dosis menores de mercaptopurina en función de ello, evitando la aparición de toxicidades en todos los pacientes sin comprometer la eficacia del tratamiento.

Como decíamos la industria se está replanteando su modelo de negocio, y las autoridades no se están quedando atrás, aunque la FDA parece llevar cierta ventaja a la EMEA. La FDA lleva ya unos años produciendo una serie de documentos no vinculantes pero orientados a proporcionar a la industria directrices sobre diversos temas relacionados con el uso de PGt y PGx en el proceso de desarrollo clínico y registro de nuevos fármacos: guías para la presentación a la FDA de datos PGx, guías sobre tests genéticos y farmacogenéticos, y, en colaboración con la EMEA, están desarrollando unas directrices comunes a las dos agencias para orientar a la industria sobre el proceso de presentación voluntaria de datos de este tipo en el proceso de registro de fármacos (Voluntary Genomic…). Hay numerosos documentos de la FDA sobre temas relacionados lo que demuestra su grado de interés y actividad en este campo.

La EMEA también está en ello, aunque quizás avanzando más despacio, y cuenta con un Comité de expertos, la Pharmacogenomcis Working Party dentro del CHMP para trabajar sobre estos temas.

Una buena terapia comienza con un buen diagnóstico.-

Hasta aquí algunos aspectos básicos de la MI y los motores económicos, científicos y tecnológicos que están impulsando su desarrollo, pero es que además casi todos los agentes implicados, no sólo la industria y las autoridades, empiezan a contemplar la MI no sólo como una oportunidad, sino como una necesidad…

Lo mencionábamos al principio, el proceso de desarrollo de nuevos fármacos actualmente es muy ineficiente: del total de moléculas que entran en fase I, sólo acaban comercializándose un 11% en promedio. Esta es una de las áreas de mejora donde pueden aportar mucho el uso de biomarcadores y de técnicas genómicas y el desarrollo de tests diagnósticos y fármacos adaptados a grupos mejor definidos de pacientes.

¿Por qué? Porque, por ejemplo, el uso de biomarcadores desde las fases más tempranas del desarrollo preclínico y clínico puede contribuir a reducir el alto porcentaje de fracasos en las fases I y II. Sobre todo teniendo en cuenta que la mayor proporción de fracasos recae en parámetros que pueden ser monitorizables y prevenidos mediante biomarcadores adecuados, como son la falta de eficacia, la falta de seguridad y la fármacococinética/biodisponibilidad.

El uso de biomarcadores también pude contribuir a reducir el numero de fármacos retirados del mercado post-autorización por falta de seguridad, con los costes enormes que ello conlleva.

Y también puede contribuir a rescatar fármacos que por alguna de las razones mencionadas no han completado su desarrollo clínico y no han llegado a comercializarse. En algunas clases terapéuticas el conjunto de fármacos identificados y desarrollados al menos parcialmente supera con mucho el de aquellos que están comercializados. Los biomarcadores, la PGt y la PGx pueden liberar parte de ese potencial actualmente desperdiciado, sino de manera generalizada, si al menos en determinadas patologías y grupos de pacientes para los que el fármaco idóneo ya ha sido identificado, pero en un contexto erróneo (población más grande, donde se diluyen los efectos beneficiosos sobre la subpoblación que puede realmente beneficiarse, como pasó con trastuzumab, con gefitinib, panitumumab, y otros)

Por último, las tecnologías ómicas pueden acelerar y optimizar el proceso de descubrimiento de nuevas dianas terapéuticas, cosa muy necesaria ya que según diversos estudios, mientras existen unas 130 familias de dominios proteicos, más de la mitad de los fármacos aprobados están dirigidos contra sólo 4 de estas familias. El resto de familias cuentan con algunos fármacos, y la mayoría de ellas con uno o ningún fármaco.

Por su capacidad de análisis simultáneo de miles de genes proteínas y muestras, la genómica, la proteómica y otras -ómicas están llamadas a jugar un importante papel dinamizador en este campo.

Del blockbuster al nichebuster.-

Ventajas del uso de biomarcadores y segmentación:

- Desarrollo clínico:

o Reducción de tiempos
o Reducción tasa de fracasos (predición temprana de eficacia y toxicidad; ensayos con menor tamaño muestral, subpoblaciones)
o Rescate de fármacos
o Ahorro de costes.

- Post-autorización:

o Nuevas indicaciones
o Mayor velocidad de penetración en el segmento diana.
o Mejor adherencia al tratamiento
o Mayor duración del tratamiento

Como ya hemos visto, identificar aquellas poblaciones de pacientes que más se van a beneficiar de un tratamiento supone un cambio radical con respecto al modelo predominante en las últimas décadas en la industria, el del blockbuster. Se trata de un medicamento con ventas anuales medias de entre 500 y 1000 millones de dólares, capaces de generar un retorno sobre la enorme inversión efectuada para su desarrollo, así como de compensar las pérdidas sufridas en el desarrollo de todos aquellos candidatos que no han llegado a comercializarse.

En términos simplistas, la población diana potencial del blockbuster es toda la población con una patología concreta, por lo que segmentar esa población desarrollando fármacos dirigidos a subpoblaciones de pacientes con características determinadas es percibido, todavía hoy, dentro de la industria como una amenaza.

Sin embargo, para entender el valor real de este cambio de modelo de negocio, hay que mirar el conjunto, y desde esa perspectiva ver si los número “salen” o “no salen”. Para empezar, el uso de biomarcadores y la segmentación puede suponer importantes ahorros en el desarrollo clínico de fármacos: acortando los tiempos, reduciendo y acotando mejor las poblaciones de cada ensayo, reduciendo la tasa de fracasos mediante la predicción temprana de la eficacia y toxicidad de los fármacos en desarrollo, y, en definitiva ahorrando costes.

No sólo eso, sino que la segmentación puede suponer numerosos beneficios después de la autorización: contribuyendo a la obtención de nuevas indicaciones, aumentando la velocidad de penetración en el segmento diana, mejorando la adherencia al tratamiento (el biomarcador permite seleccionar mejor a los pacientes, luego funcionará mejor, y el paciente seguirá mejor las pautas; si el biomarcador permite evaluar la respuesta, tanto el médico como el paciente tendrán mayor seguridad de que el tratamiento está funcionando), y, por lo anterior, también es posible que la duración media de los tratamientos sea superior.

Por lo tanto, lo que en un primer momento puede parecer una reducción considerable del mercado de un fármaco, a largo plazo, y por lo que acabamos de explicar, puede conducir a un tamaño de mercado (en unidades vendidas) muy similar (menos pacientes pero mayor penetración del mercado, mayor adherencia al tratamiento y mayor duración del mismo)

Como decíamos, ¿salen los números? Aun no lo sabemos, pero podrían. Existe una simulación que se basa en el valor actual de parámetros y su tendencia para los próximos años de mantenerse el modelo actual sin cambios, lo que podría conducir a un periodo de desarrollo medio aún más largo (14 años, recordando que las patentes duran 20), mayor coste de desarrollo, menor tiempo de comercialización pero una reducción del beneficio bruto y del ratio de este con los costes de desarrollo.

Los autores de esta estimación intentan evaluar el impacto económico que podría tener la segmentación en estos parámetros, y plantean dos escenarios, uno optimista (excesivamente, diría yo) y otro más realista (tiempo de desarrollo igual que hoy, 10 años, menores ventas anuales, margen y beneficio que en la situación actual, pero una relación beneficio bruto/costes de desarrollo similar a la de hoy, gracias sobre todo a la reducción de los costes.

Realista o no, está por ver, pero el modelo actual necesita cambios y parece que la segmentación podría ser al menos una de las soluciones al problema, quizás no la única.

En la medida en que se vayan descubriendo y validando biomarcadores, la tendencia será efectuar en paralelo el desarrollo del fármaco y de su test diagnóstico acompañante, del que Herceptin y HER2 (hay distintos tipos de test Dx comerciales) serían ejemplo paradigmático. Como hemos explicado anteriormente, el co-desarrollo de fármaco y test basado en biomarcadores tiene sus ventajas, ya que un biomarcador adecuado puede orientar los ensayos clínicos fase III y dirigirlos a poblaciones de pacientes más seleccionadas y reducidas, ahorrando tiempo y costes.
Sin embargo, esto no es fácil porque:

1. Identificar y validar un biomarcador y desarrollar un test Dx a partir de él puede ser tan complicado y costoso como desarrollar un fármaco

2. Los procesos de desarrollo de medicamentos y tests diagnósticos son esencialmente asincrónicos y de naturaleza distinta. El de los fármacos es un proceso más estático, lineal…. Mientras que el desarrollo de tests Dx es un proceso más dinámico, ...

Disponer de un marcador, o mejor aun, de un test validado en el momento de solicitar el registro de un nuevo medicamento confiere a este un valor añadido de innovación y diferenciación que debería ser valorado por las autoridades sanitarias (un ejemplo reciente es el de la aprobación por la EMEA de panitumumab: rechazado inicialmente por estimar la agencia que el beneficio clínico no era suficiente, pero aprobado posteriormente gracias a un estudio retrospectivo que mostraba un mayor beneficio clínico en la subpoblación de pacientes con el gen KRAS no mutado)

Un último aspecto relacionado con el co-desarrollo y el co-lanzamiento de fármaco y test acompañante es que dentro de la propia industria hay opiniones divergentes sobre si la existencia de un test acompañante ralentiza o no la adopción de un nuevo tratamiento, ya que la realización del test puede conllevar gastos adicionales, personal, infraestructura que pueden actuar de freno.

Tal vez porque falten estudios de evaluación económica, tal vez porque la legislación actual no está suficientemente armonizada en Europa ni concede un papel destacado a los tests diagnósticos en el contexto de la aprobación de nuevos fármacos, lo que sí parece claro es que hoy en día los tests Dx no son considerados en su justo valor.

Además de su valor intrínseco como innovación tecnológica, de su capacidad para contribuir a ahorrar intervenciones y costes sanitarios…. Y de ser cruciales en un alto porcentaje de decisiones clínicas, nuestros sistemas de salud invierten apenas un 5% de su presupuesto en tests Dx. Esto es algo que sería conveniente reconsiderar, ya que una valoración más favorable y homogénea de los tests Dx por parte de las autoridades sanitarias proporcionaría un impulso muy notable al desarrollo de los mismos.

Acabamos de decir de que necesitamos una mayor armonización legislativa, y también más estudios, más datos: de evaluación económica, de validación clínica, … etc. Esto supone movilizar muchos recursos, y requiere tiempo y dinero. Por ello, la colaboración a todos los niveles es clave.

Estos son unos pocos ejemplos, pero hay más, que demuestran que tanto las autoridades, como los clínicos, investigadores y la industria farmacéutica están impulsando cambios legislativos, plataformas de colaboración, e iniciativas público-privadas que aceleren el desarrollo de la MI:

Las dos agencias, FDA y EMEA están colaborando estrechamente en este campo. Ambas han elaborado directrices para orientar a la industria en la incorporación de datos genéticos y PGt en el desarrollo clinico de fármacos, pero además desde hace un tiempo ya ofrecen a la industria la posibilidad de presentar y discutir esta información en reuniones conjuntas a tres bandas.

Otra iniciativa conjunta es la del Predictive Safety Testing Consortium, en la que ambas agencias colaboran con más de una docena de compañías farmacéuticas con objeto de establecer unos marcadores de toxicidad válidos y aceptables por todos. Para ello se están analizando conjuntamente los métodos y datos aportados por cada una de las compañías farmacéuticas, lo que permite conseguir una masa crítica de información que difícilmente podría reunir por sus propios medios cualquier entidad pública o privada. Esta iniciativa ya ha dado sus frutos hace unos meses, con el anuncio de la aceptación de 7 nuevos marcadores de toxicidad renal, a los que seguirán los de toxicidad hepática y otros.

La Innovative Medicines Initiative (IMI), es una colaboración público-privada entre la UE y la Asociación Europea de la Industria Farmacéutica para incrementar la competitividad y productividad de nuestra I+D biomédica, concentrando los esfuerzos en 4 pilares fundamentales: la predicción temprana de la eficacia, la predicción temprana toxicidad (aspectos en que los biomarcadores son clave), la gestión del conocimiento, y la educación y la formación de los investigadores, profesionales sanitarios y resto de agentes involucrados en el campo de la biomedicina. Es un proyecto complejo y ambicioso que acaba de ponerse en marcha y constituye un buen ejemplo del grado de implicación y compromiso necesarios por parte de los sectores público y privado para superar las barreras que se oponen al desarrollo de la MI.

Conclusión.-

Como conclusión de varios de los aspectos abordados, la MI supone un cambio de paradigma….. Que no va a desplazar por completo, pero sí a complementar al actual en aquellas áreas en que el estado del conocimiento lo vaya permitiendo.

Para facilitar el desarrollo de la MI, es necesario:

- Acumular mayor grado de evidencia científica y clínica
- Promover la investigación traslacional entendida como un ciclo en el que la básica y la clínica actúan de forma concertada y complementaria y se retroalimentan mutuamente
- Potenciar la inversión, la creación de infraestructuras, plataformas y centros de excelencia, y mejorar la gestión del conocimiento
- Reconocer el verdadero valor de los tests Dx como innovación (y como fuente de ahorro de costes sanitarios)
- Fomentar la colaboración público-privada, tanto a pequeña como a gran escala
- Armonizar procedimientos y legislación, especialmente en lo que se refiere a los datos PGt, PGx y a los tests Dx
- Impulsar la formación de los gestores, profesionales sanitarios y la población general en las nuevas áreas de conocimiento que está empezando ya a tener un impacto considerable en nuestros sistemas de salud

Jaime del Barrio
Instituto Roche