Brin y la data driven science: un cambio vital

Pocas veces he disfrutado tanto leyendo un artículo. El que contaba hace unos días la historia de Sergey Brin, Cofundador de Google, en Wired, creo que reúne muchas de las cosas que considero que hacen de una historia algo no sólo memorable sino también generativo, con capacidad de hacer nacer y prosperar muchas ideas y conexiones  más.

Por lo menos era lo que me ocurría personalmente, a media lectura de Bursts, la última obra de Barábasi sobre cómo las redes sociales en internet pueden llegar a cambiar la forma en que nos aproximamos a las ciencias sociales.

Un mundo de datos, de cada vez más datos, que permite registrar cosas antes impensables, indicadores del comportamiento social pero también claves importantes para la investigación en ciencias más “puras”. Es el caso de la investigación médica para la que Brin, con el ánimo de acelerar el conocimiento en torno a la enfermedad del Parkinson, recomienda un cambio de paradigma. Parte de un motivo básico, la conciencia de tener un riesgo genético superior al de la media de terminar padeciendo la enfermedad, que coincide en su caso con una trayectoria vital dedicada a las ciencias computacionales desde los privilegiados laboratorios de Mountain View.

¿Puede un modelo impulsado por conjuntos de datos y el poder de las computadoras competir con el estándar dorado de la investigación? Si en las ciencias computacionales el datamining, el proceso de recogida y tratamineto de cantidades abundantes de datos se conoce como “market-basket analysis”, dados los algoritmos adecuados pueden surgir ineresantes asociaciones de todo tipo de conjuntos de datos no convencionales (palabras en un documento, número de visitas a páginas web o los caminos que sigue la propagación viral según el rastreo de dólares por parte de usuarios de internet, en un ejemplo de Barábasi en Bursts).

El foco de la ciencia basada en datos está en los patrones más que en las hipótesis, reduciendo considerablemente los tiempos para nuevas inferencias o descubrimientos, en contraste con el método tradicional.

Os recomiendo, como siempre leer el artículo, pero quería dejaros su resumen, en un esquema que me ha parecido claro. El cambio en el paradigma de la investigación científica se resume bien en el ejemplo siguiente:

Modelo tradicional

  • 1. Hipótesis: Un primer estudio sugiere que los pacientes con la enfermedad de Gaucher (causada por una mutación en el gen GBA) puede incrementar el riessgo de Parkinson.
  • 2. Estudios: Los investigadores conducen estudios posteriores al respecto.
  • 3. Agregación de datos: Dieciséis centros recogen información de más de 5,500 enfermos de Parkinson.
  • 4. Análisis: Un estadístico comprueba los números.
  • 5. Escritura: Se elabora un paper entre 64 autores.
  • 6. Presentación (Submission): El paper se envía al The New England Journal of Medicine. Revisión entre pares.
  • 7. Aceptación: El NEJM acepta el paper.
  • 8. Publicación: El paper determina que la gente con Parkinson tiene 5.4 veces más probabilidades de tener mutaciones en el gen GBA.

    Tiempo total: 6 años

    Iniciativa genética de estudio del Parkinson

  • 1. Elaboración de la herramienta: Diseñadores de encuestas construyen un cuestionario que los pacientes usarán para reportar síntomas.
  • 2. Reclutamiento: Se anuncia a la comunidad, con el objetivo de reclutar 10.000 personas con Parkinson.
  • 3. Agregación de datos: Se analiza el ADN de los miembros de la comunidad. También se rellenan las encuestas.
  • 4. Análisis: Investigadores de 23andMe ejecutan una consulta en una base de datos con más de 3,200 sujetos. En 20 minutos hay resultados.
  • 5. Presentación: Se reportan los resultados en el congreso de Medicina Royal Society of Medicine en Londres: la gente con GBA tiene 5 veces más probabildades de desarrollar Parkinson. Posteriormente se publicarán los resultados.

    Tiempo total: 8 meses


    Culminando una tradición que iniciaría el acosado Turing, Jim Gray, investigador y científico computacional, llamaba al movimiento inevitable desde la tradicional hipótesis a los patrones el cuarto paradigma de la ciencia. Gray predecía ya en 2007 que la afluencia de datos podía llegar a “agobiar” a científicos de distintas disciplinas si no se reconsideraban ciertos elementos del proceso científico y se aplicaban herramientas de computación masiva a su desarrollo.

    El caso de Bryn no es nuevo: Andy Grove, ex-CEO de Intel exhortaba también una revolución cultural en la ciencia, basada en la misma necesidad de acelerar los procesos de investigacíón y desarrollo. Él mismo, diagnosticado de Parkinson en el año 2000, ha luchado contra el ritmo al que se mueve la ciencia tradicional: Despúes de 10 años de estudio en el ámbito del Parkinson tenemos 3 medicamentos en fase de pruebas, que reportarán resultados en 2012 y saldrán al mercado en 2015.

     

    Recuerdo la pregunta que lancé en twitter y quedó en el tintero digital durante la charla de Kurzweil en los Debates de Fundación Telefónica en Madrid. ¿Puede una redistribución de recursos acelerar la evolución biomédica y tecnológica que presentaba y que parecía culminar en un aumento de la esperanza de vida espectacular?

    Vengo de una reunión de trabajo en la Fundación Bofill en torno a la educación. Editoriales, profesores, cátedras y cateráticos frenan hoy, limitan de forma artificial la educación de los ciudadanos de mañana. La educación sigue pareciendo obsesionada con los límites y no con las posibilidades. Y no es que sea un tema banal, pero no alcanza el nivel destructivo de la incongruencia tecnofóbica que relata Brin.

    Ambos son debates éticos que debemos exigir o iniciar. ¿En qué medida es tolerable la resistencia al cambio, el mantenimiento del status quo de ciertos científicos o instituciones si lo que está en juego puede ser no sólo ya la realización, la felicidad del ser humano, sino también la propia vida?

  • Entrada leída 904 veces desde Abril de 2022

    ¿Te ha gustado? Opciones para compartirlo en redes:

    13 comentarios en “Brin y la data driven science: un cambio vital

    1. Pingback: Bitacoras.com
    2. El mundo de la educación, principalmente la universitaria, y el de la investigación, principalmente también la que parte de la universidad, están mayoritariamente impregnados de egos, filias, fobias y demás patologías que terminan por confundir el medio con el fin.

      Soy matemático de formación y durante los últimos años de carrera en los que estudié la especialidad de computación, pude vivir algunos casos de rechazo visceral a esta visión que tú planteas.

      Que los catedráticos e investigadores den entrada a los datos y a su computación masiva y compartida, requerirá de aplicar en las universidades algo parecido a un ERE integral.

      Gran reflexión, Dolors.

    3. “La educación sigue pareciendo obsesionada con los límites y no con las posibilidades.” Esta frase me parece simplemente fantásticamente acertada, aunque creo que se aplica más al “sistema educativo” que a los mismos docentes que están cada vez más conscientes de la necesidad de “hacer algo”.

      Gracias por compartir estas reflexiones.

    4. Pingback: Privacidad vs. procomún: más sobre el tema clave en la Sociedad de la Transparencia | El caparazon
    5. Pingback: BURSTS (resumen), Are we human or are we dancers? | El caparazon
    6. Pingback: Valoración y mejores posts en El caparazón en 2010 | El caparazon
    7. Pingback: El caparazón » Más de 30 buenas ideas en innovación social en 2012
    8. Pingback: El caparazón » Salud, empoderamiento y participación en la internet móvil, algunos datos interesantes
    9. Pingback: El caparazón » Más privacidad, menos participación. ¿Es eso lo que queremos de los jóvenes?
    10. Pingback: 23 and me, big data como commodity y medicina personalizada | El caparazon

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *