El ecosistema del libro electrónico científico

El ecosistema del libro electrónico científico.

  futurosdellibro el 20 noviembre, 2013

En el capítulo II del merecidamente premiado El ecosistema del libro electrónico universitario, coordinado por José Antonio Cordón, director del grupo E-lectra, puede leerse: “la pregunta fundamental que ha de hacerse cualquier servicio de de publicaciones es “asumiendo que la investigación primaria es original e importante, ¿cuál es el mejor medio para difundirla al resto del mundo?”. La respuesta”, aseguran los autores, “radica en las oportunidades que para las editoriales universitarias representa la edición digital y la reformulación de los marcos de comunicación académica para garantizar una mayor accesibilidad del público a la investigación”. Precisamente.

La cuestión fundamental que todo servicio de publicaciones académico, científico y/o universitario debería plantearse no es tanto la manera en que puede acatar y obedecer los mecanismos de evaluación (relativamente) tradicionales sino, más bien, valiéndome de la reflexión de los mismos autores, la forma en que pueden renovar, regenerar y mejorar el marco de la comunicación científica valiéndose de los mecanismos de creación, comunicación y distribución digital de contenidos fomentando la agregación de inteligencia colectiva, el intercambio generoso y libre de conocimiento. Los precedentes son conocidos y siempre viene bien recordarlos: en 1665, en la segunda mitad del siglo XVII, se crearon casi al unísono las que pasan por ser las dos primeras revistas científicas. En enero de ese año el Journal des sçavans y poco después, en el mes de marzo, The Philosophical Transactions of the Royal Society. Lo que hicieron fundamentalmente esos dos nuevos marcos de comunicación científica fue aplicar la tecnología de la imprenta a la creación, difusión e intercambio de los contenidos científicos, en suma, generar un nuevo espacio de comunicación y discusión científica que acababa con los arcanos intercambios de mensajes cifrados entre científicos aislados (como había venido ocurriendo con Galilego, Kepler o el mismo Leonardo da Vinci). Transcurrieron más de doscientos años entre el invento de la imprenta y la extracción de las consecuencias que podría tener para agilizar y mejorar la comunicación científica.

Hoy en día, el cambio es mucho más profundo, acelerado y estructural: se han modificado profundamente las posibilidades de acceso al conocimiento pero, también y al unísono, las “modalidades de argumentación y los criterios o recursos que pueden movilizar al lector para aceptarlas o rechazarlas”, como escribe Roger Chartier. La textualidad electrónica, sigo citando, “permite desarrollar argumentaciones o demostraciones según una lógica que ya no es necesariamente lineal ni deducativa […] sino que puede ser abierta, extendida y relacional gracias a la multiplicación de los vínculos textuales”. Semejante cambio no es meramente topológico; es epistemológico, supone una profunda mutación que “modifica los modos de construcción y acreditación de los discursos del saber”. Esa es, sin duda, la cuestión fundamental por la que la mayoría de los científicos, sociedades académicas y servicios de publicaciones pasan de puntillas por las profundas implicaciones que conlleva, porque admitir esos cambios podría desmoronar el cómodo edificio en el que habitan. En todo caso, El ecosistema del libro electrónico universitario recoge muy acertada y cumplidamente muchas de las tecnologías y casos que están propiciando esta revolución: desde las plataformas de venta y distribución de libros académicos (Safari, Questia, Ebrary, etc.), que favorecen modalidades de uso y consumo de contenidos muy distintas a la de la monografía tradicional; pasando por la discusión sobre las modalidades de acceso y el préstamo y alquiler de contenidos digitales (en modalidad comercial o en el seno de una comunidad); hasta la más obvia de las potencialidades para un científico: la de la autopublicación y el uso de licencias que propicien la libre circulación de su trabajo. Los autores son en gran medida conscientes de esas hondas y disruptivas consecuencias: “los editores han de enfrentarse”, dicen, “ante un concepto de libro profundamente redefinido en el contexto digital, en el que la unidad de referencia no es el biblion sino los datos los metadatos”. Precisamente. “Esto no quiere decir que el entorno digital destruya el libro pero sí que lo transforma profundamente, inscrito en una lógica que sobrepasa el soporte unitario para configurar una diversificación cada vez mayor de productos y servicios”.

Sé que las reglas no escritas de la buena crítica literaria y científica dicen que uno debe criticar por lo que se dice y no por lo que se deja de mencionar, pero yo creo de este apreciable trabajo puede aprenderse tanto por lo que comenta como por lo que deja (al menos parcialmente) de explorar. En el año 2009 Tim Gowers, matemático acreditado con la Medalla Fields, decidió presincidir de las reglas tradicionales de la publicación científica y plantear en un blog (The Polymatch Project) un problema hasta ese momento irresuelto denominado Polymath1. La historia dice que 37 días después de haber expuesto ese problema a luz pública y a la colaboración masiva (entre los participantes, exponiendo sus ideas abiertamente, estaba Terence Tao, otro Field medallist), 800 comentarios más tarde, el problema fue resuelto satisfactoriamente. El pasado 9 de noviembre Tim Gowers planteó su noveno problema (polimático). ¿De qué manera, en los términos tradicionales conocidos por la ciencia, puntuaría la colaboración en ese espacio abierto sin más control que el de la propia comunidad que colabora? ¿En qué medida influirá ese trabajo en progreso y acreditación profesional de quienes contribuyen de manera altruista al progreso del conocimiento? ¿Alguien, en alguna sociedad científica o tribunal universitario tendría en cuenta las entradas publicadas en ese blog como equivalentes a los artículos difundidos a través de una cabecera con un “impacto” determinado”? ¿Cabe fomentar la colaboración entre científicos en un campo cuyas reglas no premian la colaboración sino, más bien al contrario, la penalizan y la subestiman? ¿Tiene todo esto en la era digital algún sentido? No, por supuesto que no.

“La edición universitaria”, dicen los autores algo más adelante, “no puede quedarse al margen de un movimiento que representa un cambio de paradigma en el ámbito de la edición, como muestran todas las estadísticas y estudios desarrollados en los países de nuestro entorno”, pero no basta, añadiría yo, con que supongan que ese cambio comporta, tan sólo, aprender a generar ficheros Epub o disponer de una web a través de la que presentar ordenadamente la oferta editorial. La cuestión, como reflexionaba Chartier, es que nos encontramos ante un cambio epistemológico excepcional con consecuencias irreversibles para los formatos tradicionales de la edición, la comunicación, la difusión y la valoración del conocimiento científico.

Paradójicamente, según señala Paul Wouters en su breve historia de la cienciometría, el índice que nos sirve desde los años 60 del siglo XX para evaluar el impacto de una investigación y, por tanto, la relevancia y crédito que el trabajo de un grupo de científicos merece, no fue un instrumento creado por la propia comunidad científica para satisfacer unas necesidades obvias de medición y evaluación de su capital, un índice que reflejara la importancia de las propuestas, hipótesis y hallazgos de la ciencia. Fue, más bien, una herramienta creada -o, al menos, indirectamente favorecida- por la administración norteamericana, que deseaba establecer criterios contables firmes para justificar la financiación de los proyectos y, sobre todo, mejorar los mecanismos de comunicación científica entre áreas de conocimiento y departamentos universitarios y estatales con motivo, especialmente, de la carrera espacial de los años sesenta. La anarquía primaria en la que estaban encerrados los distintos agentes implicados en esos macroproyectos de investigación, las prácticas cenaculares de las camarillas académicas y de las estancas agencias estatales, no podían constituir base suficiente para una coordinación adecuada. Eugene Garfield, el creador del mecanismo evaluativo, en colaboración con Joshua Lederberg, planteó en el año 1958 los siguientes criterios de ponderación y coordinación científica: “utilidad general, permanencia en el tiempo, reducción del número de referencias a los datos mediocres, medida del ‘factor de impacto’ y servicios puntuales personalizados”. Resultaba políticamente necesario en ese momento un sistema centralizado de evaluación de la información.

Pero si todo lo anterior es cierto, si la lógica de la acumulación del capital científico requiere, para ser reconocido y potencialmente acrecentado, ser mostrado a los demás, a quienes constituyen la comunidad cualificada de los pares, ser distribuido sin cortapisas, en aras de la promoción de la unidad de la ciencia y del avance del conocimiento, puede que el sistema tradicional de medición del índice de impacto y de evaluación de la calidad de lo ofrecido no sea el más ecuánime ni el más adecuado. Antonio Lafuente describe precisamente los problemas que el peer review tradicional genera: “muchas revistas, por ejemplo, exigen que los autores declaren que no hay conflicto de intereses (es decir, connivencia) entre lo que defienden/venden las empresas que financian su investigación y los resultados que obtienen y publican. También si la identidad de los revisores […] debe mantenerse en secreto, pues abundan las conductas desviadas de todos los tipos: desde lecturas demasiado superficiales a revisiones que protegen teorías/modelos canónicos […] pasando por el robo de ideas, el retraso injustificado u otros intereses mezquinos de quienes fueron seleccionados para controlar la calidad […] Los más críticos niegan la capacidad de este sistema para cumplir su principal función: garantizar la calidad”. Si los mecanismos mediante los cuales se evalúa supuestamente la propiedad de lo publicado están desvirtuados por la injerencia disruptiva de intereses comerciales ajenos a lógica del campo; si cabe la sospecha sobre la ecuanimidad y distancia que los pares deben guardar respecto al autor y a su descubrimiento, porque escondan intereses arteros de alguna naturaleza; si algunas falsificaciones deliberadas pasan inadvertidas y, al contrario, algunos trabajos determinantes para el futuro de la ciencia son rechazados o ignorados, el edificio entero de la ciencia está afectado en sus cimientos, porque sobre la limpieza e imparcialidad del peer reviewse basa la concesión del crédito, la circulación del capital propio del campo científico, su distribución, intercambio y acumulación, y cuando ese sistema de tasación presenta síntomas evidentes de contaminación y desacierto, entonces no queda más remedio que reformarlo inmediatamente adecuándose a la lógica original de los principios que rigen la lógica de la acumulación del capital simbólico.

El problema radica, sin duda, en que nadie que pretenda recorrer la atribulada carrera científica se permite la flaqueza de publicar allí donde nadie se lo reconocerá, donde nadie le concederá la más mínima atención, donde incluso le tildarán de desaprensivo. Si las carreras de los científicos se miden, desde los años 50 del siglo pasado, en función del impacto de sus trabajos, esto es, de acuerdo con el número de citas que sus aportaciones reciban por parte de otros miembros de la academia -es decir, por el reconocimiento simbólico que la tribu científica dispensa al acto de dispendio inmaterial del candidato donante-, ¿qué razón podría llevarnos a prescindir de semejante caudal de información libremente distribuida a través de los nuevos canales de expresión digital? ‘El factor de impacto’, dice Taraborelli, “se ha convertido en muchas áreas de investigación, de manera incontrovertible, en el estándar de facto para la evaluación de la significación científica a posteriori, pero esa situación ha sido cuestionada por muchos autores que reclaman indicadores alternativos más precisos. La necesidad de nuevas estrategias de medición que superen los límites del peer review tradicional y la necesidad de nuevas métricas que complementen los indicadores de factor de impacto, se ha convertido en objeto de una discusión muy vivida en la literatura. En el campo del Open Access”, cita Taraborelli, “proyectos como CiteBase u OpCit han sido introducidos para habilitar el seguimiento de indicadores de popularidad tales como el número de vistas o descargas por artículo y para explorar la relación entre el uso y el impacto de los artículos libres online” (Taraborelli, 2008:5). Otras herramientas de software libre, como Mendeley, diseñada para el uso de la comunidad científica, invitan a sus miembros a compartir documentos y artículos, a generar e intercambiar sus bibliotecas de contenidos y anotaciones, a comunicar sus impresiones y valoraciones en torno a textos e investigaciones, en una red de relaciones que no pasa necesariamente, ya, por el acatamiento del impacto tradicional como único y principal índice de valoración sino, en todo caso, como complemento necesario. De lo que se trata, en el fondo, es de valorizar la circulación del conocimiento libre, de calcular lo que esa comunicación y entrega sin restricciones aporta a quien la realiza introduciendo en la métrica del impacto los denominados online usage factors(UF), o factores de uso online, porque la economía del conocimiento científico exige como precepto principal que los procedimientos, datos y resultados de los trabajos de investigación sean expuestos sin trabas u obstáculos a los pares si es que se pretende obtener su crédito y su reconocimiento. En el ecosistema de la web, donde la proliferación de canales y estrategias de comunicación científica autónoma han proliferado sin tasa, no cabe seguir conformándose con una métrica vinculada a la circulación analógica del conocimiento, con una contabilidad ligada a la tecnología del papel y de los comités anónimos y restringidos de especialistas. Claro que las estrategias de evaluación científica distribuida y de marcado social entrañan riesgos equivalentes a los del peer review restringido tradicional porque las métricas pueden ser infladas por la intervención improcedente y reiterativa de las arañas buscadoras (web crawlers); pueden ser alteradas por la retentiva a corto plazo de las memorias cachés; pueden ser subvertidas por la intervención deliberada y continua del propio autor, interesado en incrementar el número de usos o visitas; pueden ser simplemente engañadas por no saber distinguir entre la mera visita incidental y la inspección deliberada de una página. En todo caso, no hay nadie que no convenga, limpiamente, en que es necesario ampliar las métricas tradicionales para incluir técnicas de recuento que tengan presentes el valor de la contabilidad social distribuida.

Sé que he sobrepasado toda extensión razonable en una discusión o recensión al uso, pero los autores sabrán comprender que la extensión de mis comentarios es equivalente a la muestra de mi interés por su trabajo. Es justo además reconocer que en el texto deEl ecosistema del libro electrónico se encuentran caminos que ya exploran parte de lo antedicho: en el epígrafe titulado Teoría de grafos, se adelantan ya muchos de los criterios cibermétricos sobre los que deberá sostenerse una nueva contabilidad digital científica (medidas de centralidad como el grado, el grado de intermediación y de cercanía pueden, entre otros elementos, arrojar nueva luz sobre las zonas de verdadera influencia); y en el mismo Epílogo del libro, quizás como un ajuste de cuentas consigo mismos o como una anticipación de lo que vaya a venir en el futuro, podemos leer: “La fuerte estructuración normativa de la publicación científica es el fruto de una tradición que se ha constituido con el tiempo y que se proyecta en todos los soportes en los que aparecen representados los conocimientos, desde el papel a la edición electrónica, y es la expresión de una forma de comunicación en la que la eficacia, antes que la retórica, constituye su expresión más acendrada. Los rígidos protocolos de representación facilitan al mismo tiempo los procesos de reconocimiento y asimilación, al erigirse en esquemas fácilmente reconocibles y extrapolables entre los distintos tipos de publicaciones posibilitando la tarea del científico, que examina un texto a la búsqueda de una información precisa, pero también la del investigador que explora el mismo para la extracción de sus elementos significativos”. Así es, sin duda. “Sin embargo”, dicen los miembros del Grupo Electra, “la comunicación científica, gracias a las posibilidades de la red y de la edición digital, se está diversificando por senderos alternativos, cada vez más frecuentados por el autor, cuando considera la formulación de sus hipótesis o la presentación de sus primeros resultados de investigación. Blog, microblog, redes sociales, comunidades virtuales, constituyen espacios emergentes de intervención académica que escapan a los rígidos protocolos de las publicaciones científicas convencionales”. En consecuencia, “lo interesante del fenómeno es su progresiva integración en los sistemas de publicación más convencionales”, de manera que “el editor académico se ha de mover no solo entre los trabajos de verificación por pares sino en el entorno de reconocimientos de patrones de publicación emergentes”. Precisamente.

Si la edición universitaria ha de dar respuesta a esta realidad, quizás sea este un primer y decidido paso en ese sentido, en el de la construcción de un nuevo ecosistema de la comunicación científica.

Este texto ha sido originalmente publicado en el apartado de reseñas de Madrimasd http://www.madrimasd.org/cienciaysociedad/resenas/ensayos/resena.asp?id=502 por Joaquín Rodríguez www.madrimasd.org/blogs/futurosdellibro

Artículos relacionados