El Búho

Revista Electrónica de la Asociación Andaluza de Filosofía.

D. L: CA-834/97.

ISSN 1138-3569.

 

Francisco J.Bedoya[i]

 

EL PENSAMIENTO COMPLEJO[1] :UNA INTRODUCCIÓN A LA  COMPLEJIDAD[2] CELULAR.

 

1.       Posicionamiento de salida

·         Introducción a la comunicación celular

·         Redes de señalización en la célula

 

2.       Más allá del reduccionismo en la ciencia

·         ¿Qué es la complejidad?

·         ¿Cómo se estudia? ¿Cuáles son los límites de las simulaciones de los fenómenos complejos mediante ordenador?

·         ¿En qué teorías se basan los estudios sobre la complejidad? 

·         La tensión entre lo simple y lo complejo

 

  1. Introducción al pensamiento complejo

·         ¿Por qué aparece el pensamiento complejo?

·         ¿Cuáles son las fuentes del pensamiento complejo?

 

 

 

 

Introducción a la comunicación celular

 

En el contexto social del organismo o de los  tejidos  que lo componen, las células interaccionan mediante la emisión y reconocimiento de señales. Estas interacciones implican la existencia de receptores   que reconocen específicamente  las diferentes señales  externas a la célula y la  generación de otras señales  en el interior de la célula  que conectan la información procedente del exterior con  procesos como la extracción de energía del ambiente, el recambio de los componentes de la célula, su  supervivencia ó muerte y  su reproducción.  El estudio de los sistemas que llevan a cabo la transmisión se señales desde el exterior celular al interior han mostrado que se pueden dar fenómenos de convergencia o de divergencia y que por tanto, no existe un “cableado” específico que conecte cada señal extracelular con determinados procesos en el interior de la célula. Sino que, los mencionados “cables” están interconectados entre sí, de modo que la arquitectura en red de las comunicaciones dentro de la célula puede generar un modelo mucho más informativo de las propiedades de la célula que la conexión mediante vías independientes.

 

El abordaje analítico del estudio de la señalización celular  tiene como objeto diseccionar cada una estas vías e identificar  sus componentes. Dado que las vías de señalización intracelular forman redes en las que se procesan señales en paralelo  con interacciones múltiples, se puede tener una imagen de este proceso utilizando   modelos computacionales desarrollados  para   estudiar las conexiones en red de sistemas neuronales.

 

 

 

 

Redes de señalización en la célula3,4

La reproducción de la célula está conectada a señales extracelulares. Un modelo hipotético de esta red  de señalización   contiene receptores específicos para seis señales extracelulares   y tres  enzimas  cuyas actividades están acopladas a la activación de esos receptores con diferentes  características (fig. 1).

Los receptores reconocen dos tipos de señales extracelulares (estímulos, input)

Moléculas de la matriz  (cemento) intercelular (A1,A2 y A3)

Factores de crecimiento (B1,B2 y B3))

A1 y A2 son dos señales que activan  con diferente intensidad a la enzima 1.

A3 inhibe   a la enzima 1 y a la enzima 2.

B1,B2 y B3  activan con diferente intensidad a la enzima 2

Por último, la enzima 3  es activada por las enzimas  1 y 2  y cataliza la fosforilación de una proteína que regula la expresión de genes de proteínas reguladoras de la proliferación celular.

En esta red la enzima 1 tiene actividad máxima cuando la célula detecta las moléculas A1 y A2  si A3 está ausente, mientras que la enzima 2 es activa cuando las moléculas  B1, B2 y B3 están presentes y A3 está ausente.  La enzima 3 será completamente activa y estimulará la proliferación celular cuando las enzimas 1 y 2 están activas  simultáneamente y eso ocurre cuando la célula reconoce A1, A2, B1,B2,B3 y está ausente A3.

 

La complejidad en las vías de señalización deriva del  número de elementos que la componen, de las conexiones entre los componentes y de la relación espacial entre ellos. Además, las redes de señalización en los sistemas biológicos tienen ramificaciones condicionales, ensamblaje dinámico, translocación, degradación, además de  la compartimentalización y la regionalización de las interacciones en el interior de la célula. Cada una de estas actividades tienen lugar simultáneamente y cada componente participa en varias actividades diferentes.

 

Un abordaje  para su estudio es comenzar con una visión conceptualmente simple de la señalización  y añadir datos para introducir nuevos niveles de complejidad. De modo que la complejidad podrá ser estudiada por métodos computacionales en el momento en el que se identifiquen y parametricen los componentes de los sistemas. 

 

MAS ALLA DEL REDUCCIONISMO EN LA CIENCIA

 

Actualmente, el advenimiento de la informática y de ciertas técnicas matemáticas no lineales ayudan a los científicos modernos a la comprensión de los fenómenos caóticos, complejos y emergentes. Se puede simular la realidad y crear modelos de sistemas complejos como grandes moléculas, sistemas caóticos, redes neuronales, el cuerpo y el cerebro humano ó el crecimiento demográfico. Además, su capacidad de cálculo permite procesar información demasiado compleja para la mente humana. A partir de conjuntos de instrucciones matemáticas, el ordenador puede elaborar modelos complicados y como los autómatas celulares de von Neumann, “Life” del matemático Conway o el conjunto de Mandelbrot que contiene los fractales, objetos matemáticos cuyas propiedades están presentes en fenómenos de la naturaleza.

 

Pero una cosa es observar  que un fenómeno se ajusta  a un modelo -por ejemplo, un patrón fractal en la naturaleza- y otra cosa distinta es determinar la causa de dicho patrón.   Dicho con otras palabras,   el hallazgo de que un conjunto de reglas matemáticas seguidas por un ordenador dan origen a patrones sumamente complicados no implica necesariamente que existan unas reglas simples que subyazcan a   fenómenos del mundo que son complicados.

Los estudiosos de la complejidad y el caos afirman que las reglas simples que subyacen la naturaleza como la mecánica cuántica, la relatividad general, la selección natural o la genética mendeliana son insuficientes para explicar la complejidad.

 

¿Qué es la complejidad? [1]

 

 A comienzos de los 90 el físico Seth Lloyd recopiló 31 descripciones de complejidad que se inspiran en la termodinámica, la teoría de la información y la informática  e incluye conceptos como la entropía,  el azar y  la información[2].

 

De todas ellas, la que parece que ha tenido mayor consenso entre los que estudian experimentalmente esta propiedad de los sistemas en la naturaleza es la de  “Fenómenos al borde del caos” (Packard y Langton a finales de los años 80). Así, los expertos de la complejidad se intentan desmarcar del caos: éste es según Yorke una serie de fenómenos que evolucionan de una manera predeciblemente impredecible, demostrando sensibilidad hacia las condiciones, la conducta aperiódica y la recurrencia de ciertos patrones diferentes en la escala espacial y temporal.  Por tanto, un sistema complejo se encuentra a caballo entre una conducta altamente periódica y otra caótica 

 

Aunque los investigadores de la complejidad  no se ponen de acuerdo en lo que están estudiando, sí coinciden en cómo deberían estudiarlo: con ordenadores.

 

Por ejemplo, Langton  se ocupa de  recrear la vida  en el  ordenador. Según él, el método científico clásico proporciona una comprensión limitida de los fenómenos que surgen merced a los accidentes históricos. Esto se puede superar mediante la combinación diferente de los componentes básicos de la vida para explorar lo que podría haber sucedido hipotéticamente o pudo suceder de hecho. Se puede simular informáticamente el principio de la vida  modificando las condiciones y explorando las consecuencias. La vida artificial  de Langton pretende estudiar qué aspectos de nuestra historia fueron inevitables y qué otros fueron contingentes. Esta simulación podía seguir considerándose vida, ya que ésta  se caracteriza como  conjunto de entidades capaces de comer, reproducirse y evolucionar más que por las cosas de las que están hechas.

 

 

¿Cuáles son los límites de las simulaciones de los fenómenos complejos mediante ordenador?

 

Esta cuestión ha sido abordada  por un grupo multidisciplinario encabezado por la historiadora y geofísica  Naomi Oreskes et al. en un  trabajo publicado en Science en febrero de 1994 [3].  El argumento de los autores del artículo es que la verificación y validación de modelos numéricos de sistemas naturales es imposible. Ya que las propuestas que pueden  verificarse son las que versan sobre la lógica ó la matemática. Estos sistemas son cerrados en cuanto que sus componentes se basan en axiomas que son verdaderos por definición pura. Los sistemas naturales  son abiertos y nuestro conocimiento es incompleto y aproximativo. Los datos son significantes cargados de conocimiento incompleto de un fenómeno natural. Estas inferencias y suposiciones se pueden justificar y a veces estimar la incertidumbre sobre la base de la experiencia. Pero el grado de validez de nuestras suposiciones no  puede ser  estimado nunca a priori.  Incluso cuando una simulación remeda ó predice un fenómeno real, el modelo no está aún verificado. Un modelo, al igual que una novela, puede resonar con la naturaleza, pero no es una cosa real.

 

Los modelos numéricos funcionan mejor en unos casos que otros. Funcionan bien en astronomía y en la física de partículas porque los objetos y las fuerzas relevantes se conforman a sus definiciones relevantes con total precisión.

 

Las matemáticas ayudan a los físicos a definir lo que sería de otra manera indefinible. Así, un quark es un constructo matemático. Las teorías matemáticas son menos convincentes cuando se aplican a fenómenos más concretos y complejos como los sistemas biológicos. Por eso tienen menos capacidad vaticinadora.

 

¿Existen teorías de la complejidad?

 

A partir de la Segunda Guerra Mundial se han desarrollado tres teorías que persiguen este ideal: la Teoría de la Cibernética, la Teoría de la Información y la Teoría de la Catástrofe.

 Norbert Wiener publicó en 1948 “Cybernetics.  Control and Communication in the Animal and the Machine”. Según él las maquinas y los fenómenos biológicos  procesan y actúan en base a información empleando mecanismos como retroalimentaciones y filtros que distinguen entre señales y ruido.

 

Relacionada con ella se encuentra la teoría de la información de  Claude Shanon (1948) que inventó una definición matemática de la información basada en la entropía.

 

Por último, la teoría de la catástrofe de  René Thom desarrollada como un formalismo  puramente matemático que podía ayudar a ver con claridad una gama de fenómenos que mostraban una conducta discontínua. Las ecuaciones de esta teoría  muestran  cómo un sistema aparentemente ordenado puede sufrir cambios abruptos y catastróficos  y podría explicar  los terremotos, la aparición de la vida, la metamorfosis o el hundimiento de una civilización.

 

A finales de los 80  Per Bak lanzó la teoría del estado crítico autoorganizado. Según él, fenómenos de la naturaleza  como la evolución de las especies, el conocimiento humano o la economía, se resisten a la ciencia reduccionista. Su sistema de estudio es el montón de arena. En el estado crítico, la adición de un grano de arena puede desencadenar una avalancha. La frecuencia de sus avalanchas es inversamente proporcional a una potencia de su tamaño (ley de la potencia). Los terremotos, la extinción de las especies, las fluctuaciones del mercado de valores muestran, según Bak esta pauta de conducta. Crítica: el modelo de Bak no ofrece una buena descripción ni siquiera de un montón de arena. Son pocos los montones de arena que se ajustan a la ley de la potencia.

 

 

La tensión entre lo simple y lo complejo

Más es diferente

 

 Philip Anderson, premio Nobel  de  Física  por sus estudios sobre Física de  la materia, sostiene en un ensayo titulado “Más es diferente”[4] publicado en la revista  Science que  la física de partículas tiene una capacidad limitada para explicar el mundo. Según él, la realidad tiene una estructura jerárquica propia con niveles hasta cierto punto independientes de los niveles superior e inferior y en cada fase se necesitan principios, conceptos y acaba afirmando que “La Psicología no es Biología aplicada y la Biología no es química aplicada”.

 
Más no es diferente 

 

En la otra vertiente de la complejidad se instala el  fundador de la teoría de los quark y  premio Nobel de Física,  Murray  Gell-Mann. Fue uno de lo primeros científicos de renombre en subirse al carro de la complejidad y  publicó en 1994 “The quark and the Jaguar” en el que desarrolla el concepto  de  jerarquía en las teorías científicas. En lo alto están  las que se aplican en el universo por todas partes. Otras leyes se aplican sólo aquí en la tierra y los fenómenos que describen entrañan una gran cantidad de aleatoriedad y de contingencia histórica.  Así, en la evolución biológica hay gran número de accidentes que podrían haber ocurrido de una forma diferente y producido formas de vida diferentes, condicionadas naturalmente por presiones de selección..

Propuso que el término complejidad fuese sustituida por el neologismo pléctica que es la base de la complejidad y de la simplicidad y particularmente la manera en que pasamos de las leyes fundamentales simples que rigen la conducta de toda la materia al tejido complejo que vemos alrededor . 

 Según él, se puede remontar uno en la cadena de la explicación desde la física de la partículas hasta la biología, pero en la práctica sólo se  puede hacer  en raras ocasiones porque los fenómenos biológicos son producto de circunstancias fortuitas, históricas y contingentes.

Para él no hay necesidad de buscar una ley de la naturaleza que explicara por qué el universo ha generado orden a pesar del deslizamiento universal hacia el desorden, ya que el universo crea accidentes congelados que son estructuras complejas, pero el universo degenerará  al final ajustándose al segundo principio  termodinámico.

 

¿Qué han  aportado  los estudios sobre la complejidad?

 

Los estudiosos de la complejidad han delineado con precisión los límites del método reduccionista; además, han creado metáforas poderosas, pero no nos han dicho nada del mundo que sea concreto y sorprendente.

La complejidad está siendo abordada desde el ámbito de las matemáticas puras y de la informática teórica; otros desarrollando nuevas técnicas computacionales para ampliar el alcance de las predicciones metereológicas  y simular el funcionamiento de sistemas complejos. Pero las simulaciones por ordenador representan una metarrealidad; al proporcionar mayor capacidad de simulación  de un fenómeno natural podrían estar acelerando el fin de la ciencia empírica.

 

INTRODUCCIÓN AL PENSAMIENTO COMPLEJO

 

¿Por qué aparece el pensamiento complejo?

 

El conocimiento científico moderno tiene por objeto el disipar la aparente complejidad de los fenómenos a fin de revelar el orden simple al que obedecen. A lo largo de los últimos tres siglos se han adquirido conocimientos sobre el mundo basados en los métodos de verificación empírica y lógica.  También han  progresado los  errores derivados del modo mutilador de organización del conocimiento incapaz de reconocer y aprehender la complejidad de lo real

 

El conocimiento científico moderno opera mediante la selección de datos significativos y rechazo de los no significativos: separa (distingue) y une (asocia), jerarquiza y centraliza.  Estas operaciones son comandadas por paradigmas.

 

El paradigma científico por excelencia es el de  simplificación, que está regido por los principios de disyunción, reducción y abstracción  y formulado por Descartes, que separó el sujeto pensante y la cosa extensa , separando así  la filosofía de la ciencia.

 

Este paradigma ha permitido los enormes progresos del conocimiento científico y de la reflexión filosófica desde el siglo XVII.

 

Al disgregar conciencia y ciencia, el conocimiento generado no está hecho para ser reflexionado sino para ser utilizado con ignorancia. Los sabios no controlan las consecuencias de sus descubrimientos ni controlan el sentido ni la naturaleza de la investigación.

 

La necesidad del pensamiento complejo surge a lo largo de un camino en el que aparecen los límites, las insuficiencias y las carencias del pensamiento simplificador.

 

La complejidad no sería algo definible de manera simple para tomar el lugar de la simplicidad. La complejidad es una palabra problema y no una palabra solución

 

El pensamiento complejo intenta articular dominios disciplinarios quebrados por el pensamiento disgregador y aspira al conocimiento multidimensional pero no aspira al conocimiento complejo. Uno de los axiomas de la complejidad es la imposibilidad de una omnisciencia. Por eso, el  pensamiento complejo está animado por una tensión permanente  entre la aspiración a un saber no parcelado y el reconocimiento de lo inacabado e incompleto de todo conocimiento.

 Aunque ya  Gaston Bachelard propuso en su libro “El nuevo espíritu científico”  que lo simple no existe, sólo lo simplificado, la ciencia  moderna ha construído su objeto extrayéndolo de su ambiente complejo para ponerlo en situaciones experimentales no complejas.  Así, la ciencia no es el estudio del universo simple sino una simplificación heurística para extraer ciertas propiedades y ver ciertas leyes. No es de extrañar por tanto, que el  estudio de la  complejidad  ha sido poco  desarrollado por  filósofos   como Popper, Kuhn, Lakatos o Feyerabend  interesados en el estudio del fenómeno científico.

 

 

 

 

¿Cuáles son las fuentes del pensamiento complejo?

 

Las fuentes inspiradoras del concepto  de complejidad son  para E. Morin[5]  la Teoría de Sistemas, la Teoría de la Información, la Cibernética, y el concepto de Auto-organización. Por otra parte, para I. Prigogine[6],  la Termodinámica introdujo en la Física y en la Química los conceptos de inestabilidad, desequilibrio, desorganización e irreversibilidad y evolución.

 

Prigogine vaticina que con el pensamiento complejo la humanidad llegará al fin de las certidumbres y considera que las teorías vagas, imprecisas e impotentes son más significativas que las teorías exactas, precisas y poderosas de Newton o Einstein.

 

Gracias a las aportaciones  de estas teorías, el concepto de complejidad se liberó entonces del sentido banal de confusión y complicación para reunir orden con desorden y organización y en su seno, lo uno y lo diverso.

La Teoría de los Sistemas de von Bertalanffy revela dos direcciones: un sistemismo innovador que lleva en sí un principio de complejidad, ya que concibe al sistema como una unidad compleja que no se reduce a la suma de sus partes constitutivas y como una noción ambigua que se ha de estudiar desde un nivel transdisciplinario.y un sistemismo analítico que  transforma el sistemismo  en su contrario, es decir, en operaciones reduccionistas.

 El concepto de que los seres vivos pueden ser considerados como  sistemas termodinámicos  abiertos   muestra que la comprensión de los sistemas se debe encontrar no sólo en el sistema sino también en su relación con el ambiente.

 

El concepto de sistemas abiertos tiene valor paradigmático y ha sido aplicado al estudio de las interacciones entre   los mundos animado e inanimado en  nuestro planeta aunque el modelaje computacional haya conducido a una elección arbitraria de parámetros y variables  y a  un cálculo cuando menos pseudoexacto.

 

La  Teoría de la Información se ha extrapolado en  el dominio biológico. El ADN es un mensaje que orienta y programa el funcionamiento de la célula. La reproducción sería entendida como una copia del mensaje y  la mutación como un ruido provocador de error en la constitución del nuevo mensaje. La célula puede ser entonces cibernetizada y el elemento clave de esa explicación se encuentra en la información.

 

Quizá  falte por desarrollarse  una teoría general de las organizaciones que revele los principios de organización comunes en los seres vivientes ( la autoorganización). Como antecedente, Von Neumman   describió  las diferencias entre la máquina artefacto organizada y la máquina viviente autorganizadora. Los componentes de la máquina artificial son  extremadamente fiables, pero la máquina en su conjunto es mucho menos fiable que sus componentes aislados y sólo puede ser  reparada por una intervención externa al sistema. Los componentes de la máquina viviente son, por el contrario, muy poco confiables ya que se degradan rápidamente. En un organismo, tanto las moléculas  como las células  se renuevan constantemente, pero el organismo permanece idéntico a sí mismo (el conjunto es fiable  mientras que  sus constituyentes lo son menos).

 

Por tanto, hay una diferencia de naturaleza entre ambos tipos de sistemas y también hay un lazo consustancial entre desorganización (entropía) y autoorganización, ya  que el fenómeno de desorganización prosigue su curso en lo viviente y está asociado de manera inseparable al fenómeno de la reorganización. Este fundamento de la autoorganización no depende  de la lógica que se aplica a las cosas mecánicas y postula una lógica de la complejidad.

La cibernética reconoció la complejidad para rodearla poniéndola en una caja negra, lo que permitía estudiar los resultados de funcionamiento del sistema en función de sus entradas.

El problema teórico de la complejidad  consiste en entrar en la caja negra y considerar la complejidad lógica y organizacional. No sólo hay que renovar la concepción del objeto sino que hay que revertir las perspectivas epistemológicas del sujeto, en este caso del observador científico.

 

 Ya que, lo propiamente científico era eliminar la imprecisión, la ambigüedad y la contradicción y hay que aceptar una imprecisión cierta como está ocurriendo en las matemáticas  al abordar los conjuntos imprecisos.

Este pensamiento complejo debiera aportar los principios de los que emergiera el nuevo paradigma de la complejidad.

 

 Morin propone  estos principios  para ayudarnos a pensar la complejidad:

 

El  dialógico: dos lógicas  como estabilidad / inestabilidad  y  orden / desorden, que son  necesarias la una para la otra

 

El de recursividad organizacional: todo lo que es producido reentra sobre lo que lo ha producido (ejemplo  los individuos al ser producidos somos productores del proceso que va a continuar). Esta idea recursiva rompe con la idea lineal de causa/efecto.

 

El  principio hologramático: no sólo la parte está en el todo sino que el todo está en la parte ( Ejemplo, en el mundo biológico, cada célula de nuestro organismo contiene la totalidad de la información genética de ese organismo)

 

En la Naturaleza hay tendencias de complejización creciente, lo que nos permite determinar modelos de baja complejidad, mediana complejidad y alta complejidad en función de desarrollos de la auto-organización (autonomía, individualidad, riqueza de relación  con el medio ambiente, aptitud para el aprendizaje, inventiva, creatividad) y al  cerebro humano como fenómeno de muy alta complejidad .

 

Para finalizar, transcribo una frase del libro   “El azar y la necesidad. Ensayo sobre la filosofía natural de la biología moderna”[7] de Jacques Monod  que refleja el planteamiento complejo del fenómeno vital:

“Una teoría universal que contuviera la relatividad, la teoría cuántica y la teoría de las partículas elementales y que contemplara la evolución del Universo a partir de unas condiciones iniciales, no podría contener a la biosfera como un fenómeno deducible de los primeros principios.  La biosfera constituye una clase de objetos ó fenómenos compatible con los primeros principios, pero no deducibles de ellos principios, por tanto, esencialmente imprevisible”.



[1] Los límites  conocimiento científico en el declive de la era científica .John Horgan, Ed. Paidós,1998.

 

[2] En la actualidad esta lista incluye cuarenta y cinco definiciones. Información (Shannon); entropía (Gibbs y Boltzman), complejidad algorítmica; contenido e información algorítmica (Chaitin, Solomonoff y Kolgorov); información de Fisher, entropía de Renyi; longitud de código autodelimititador ( Huffman y Shannon-Fano); longitud de código corrector de errores ( Hamming); información de Chernoff; longitud de descripción mínima (Rissanen); número de parámetros o grados de libertad, o de dimensiones; complejidad de Lempel-Ziv; información mutua o capacidad de canal ,  información mutua algorítmica; correlación, información almacenada (Shaw); información condicional; contenido de información algorítmica condicional; entropía métrica; dimensión fractal; autosimilaridad; complejidad estocástica (Rissanen); sofisticación (Koppel y Atlan); tamaño de máquina topológica (Crutchfield); complejidad efectiva o ideal (Gell-Mann), complejidad jerárquica (Simon); diversidad de subgráfico de árbol (Huberman y Hogg); complejidad computacional de tiempo; complejidad basada en la información (Traub); complejidadhomogénea (Teich y Mahler); profundidad lógica (Bennet); profundidad termodinámica (Lloyd y Pagels); Complejidad gramatical ( posición de la jerarquía de Chomsky); información de Kullbach-Liebler); distinguibilidad (Wooters, Caves y Fisher); discrimininalidad (Zureck); distancia de Hamming; orden de largo alcance; autoorganización, sistemas complejos de adaptación; filo o borde del caos.

 

[3] “Verification, validation, and confirmation of numerical modelssn the earth Sciences” Oreskes, N. Et al Science, 4 de febrero de 1994, Págs. 641-646

[4]  P.Andersson  “More is different” , Science  4 de agosto de 1972 Pág. 393

[5] “Introducción al pensamiento complejo” E.Morin, Ed. Gedisa,1998

 

[6] “La nueva alianza. Metamorfosis de la ciencia” I. Prigogine e I.Stengers Alianza Ed.,1997

[7] J.Monod. en  “El azar y la necesidad..Ensayo sobre la filosofía natural de la biología moderna”. Págs 48-49    Tusquets ed,1993

 


[1] Complejo,adjetivo: dícese de lo que se compone de elementos diversos (Diccionario de la Real Academia Española de la Lengua)

[2]  Complejidad, sustantivo:Calidad de complejo (Diccionario de la Real Academia de la Española de la Lengua)

3,4Alberts B. et al  Biología Molecular de la Célula, ed Omega, 1996

 Weng, G. Et al, Science 284 92-98 (1999)

 



[i] Profesor Titular de la Facultad de Medicina de la Universidad de Sevilla