El gobierno de los sistemas inteligentes

DANIEL INNERARITY

 

Descarga Caminos hacia la sostenibilidad S.M.A.R.T. (PDF)

 

Se gana mucho más mejorando los procedimientos que mejorando a las personas que los dirigen. No deberíamos esperar tanto de las virtudes de quienes componen un sistema complejo ni temer mucho sus vicios; lo que realmente debería inquietarnos es si su interconexión está bien organizada

La principal tarea del gobierno de la sociedad del conocimiento consiste en crear las condiciones que posibiliten la inteligencia colectiva. Sistematizar la inteligencia, gobernar a través de sistemas inteligentes, debería ser la prioridad, en todos los niveles, de gobiernos, instituciones y organizaciones. Gobernar entornos complejos, hacer frente a los riesgos, anticipar el futuro, gestionar la incertidumbre, garantizar la sostenibilidad o estructurar la responsabilidad nos obliga a pensar holísticamente y a configurar sistemas inteligentes (tecnologías, procedimientos, reglas, protocolos…). Solo mediante tales dispositivos de inteligencia colectiva es posible acometer un futuro que ya no es la pacífica continuación del presente, sino una realidad intransparente, llena de oportunidades, por la misma razón por la que contiene también riesgos potenciales de difícil identificación. Ese mismo principio de gobierno inteligente debería presidir la manera de relacionarnos con nuestros dispositivos tecnológicos para hacer frente a las nuevas ignorancias que, en una sociedad compleja, nos vemos obligados a gestionar.

La naturaleza de la inteligencia colectiva

Para entender qué es un sistema de inteligencia colectiva puede resultarnos ilustrativo el experimento mental planteado por Robert Geyer y Samir Rihani (2010, 188):

  1. ¿Qué pasaría si los gobernadores del Banco de Inglaterra fueran sustituidos por una habitación llena de monos?;
  2. ¿Qué pasaría si Gran Bretaña copiara exactamente el sistema educativo de Noruega?, y
  3. ¿Qué pasaría si se inventara un supermedicamento que suprimiera todos los síntomas del resfriado común (o la resaca de nuestros estudiantes)?

Si uno tuviera que responder rápidamente a estas preguntas, la intuición inmediata le llevaría a asegurar que:

  1. La economía británica colapsaría;
  2. Aumentaría el rendimiento, ya que el sistema educativo de Noruega está muy por encima del de Reino Unido, y
  3. Sería un avance maravilloso para la salud personal, pues el paciente se sentiría mucho mejor.

Ahora bien, a poco que hayamos podido reflexionar y superar el automatismo en la contestación, si miramos las cosas desde la perspectiva de la complejidad de los sistemas, las respuestas serían muy diferentes: 1) El gobierno de los monos pondría de manifiesto hasta qué punto estamos gobernados por sistemas más que por personas, con equilibrios, contrapesos y correcciones automáticas, por lo que los monos no harían tanto daño como podría suponerse; 2) La traslación de un sistema educativo a otro país no sería tan exitosa. Por supuesto que se puede aprender de las best practices de otros, pero el éxito de un sistema tan complejo como el educativo depende mucho de factores que no son automáticamente trasplantables; 3) La salud no es lo mismo que sentirse bien y ahorrarse los síntomas molestos equivale a privarse de unas señales y mecanismos de aprendizaje que sirven precisamente a nuestra salud, entendida como algo más valioso que la mera ausencia de malestar aquí y ahora.

Este experimento es interesante porque en el automatismo de nuestras respuestas iniciales se pone de manifiesto hasta qué punto somos deudores de un modo de pensar centrado en los individuos y los líderes, en el corto plazo y en la falta de atención a las condiciones sistémicas en las que tienen lugar nuestras acciones. Seguimos pensando que el gobierno es una acción heroica de las personas en vez de entender que se trata de configurar sistemas inteligentes. Es una prueba de eso que Luhmann llamaba «la huida hacia el sujeto» (1997, 1016), cuando la acción política se degrada a una competición entre personas, sus programas, sus buenas (o malas) intenciones o su ejemplaridad moral. Por eso hablamos de liderazgo con unas connotaciones tan personalizadas, la atención pública se interesa principalmente por las cualidades personales de quienes nos gobiernan, nos preocupa más descubrir a los culpables que reparar los malos diseños estructurales…

Todo lo que sea poner el foco en el ser humano para designar los problemas que tenemos y hacerles frente —la teoría de que lo importante es el ser humano, sea desde la perspectiva de las propiedades personales del líder o de las motivaciones del votante individual en clave de rational choice— lleva consigo una infravaloración de las propiedades sistémicas de la complejidad social. Los principales problemas a los que se enfrenta hoy la humanidad están planteados por un sistema interdependiente y concatenado, cuyos componentes individuales son ciegos cuando se trata de enfrentar estos conflictos: insostenibilidad, riesgos financieros y, en general, aquellos que están provocados por una larga cadena de comportamientos individuales que no son en sí mismos malos, pero sí lo es su desordenada agregación. De ahí que no se trate tanto de modificar los comportamientos individuales como de configurar adecuadamente su interacción, y esa es precisamente la tarea que podemos designar como inteligencia colectiva. Se gana mucho más mejorando los procedimientos que mejorando a las personas que los dirigen. No deberíamos esperar tanto de las virtudes de quienes componen un sistema complejo ni temer mucho sus vicios; lo que realmente debería inquietarnos es si su interconexión está bien organizada, cómo son las reglas, los procesos y las estructuras que configuran esa interdependencia.

Las sociedades están bien gobernadas cuando son los sistemas en los que se sintetiza una inteligencia colectiva (reglas, normas y procedimientos) los que las gobiernan, y no cuando tienen a la cabeza personas especialmente dotadas. Podríamos prescindir de las personas inteligentes, pero no de los sistemas inteligentes; lo que se suele decir de otra manera: una sociedad está bien gobernada cuando resiste el paso de malos gobernantes. Estos doscientos años de democracia han configurado precisamente una constelación institucional en la que un conjunto de experiencias ha cristalizado en estructuras, procesos y reglas (especialmente las constituciones) que proporcionan a la democracia un alto grado de inteligencia sistémica, una inteligencia que no está en las personas sino en los componentes constitutivos del sistema. De alguna manera, esto hace al sistema democrático independiente de las personas concretas que actúan en él e incluso de quienes lo dirigen, y resistente frente a los fallos y debilidades de los actores individuales. Por eso la democracia tiene que ser pensada como algo que funciona con el votante y el político medio; únicamente sobrevive si la propia inteligencia del sistema compensa la mediocridad de los actores, incluido el eventual paso de unos monos por el gobierno.

El doble riesgo de las tecnologías

Un ejemplo de configuración de nuestra inteligencia colectiva puede verse en el modo como diseñamos nuestros artefactos tecnológicos. No me refiero tanto a su sofisticación sino a cómo identificamos sus riesgos futuros y nos protegemos de ellos. Pues bien, una de las paradojas de nuestras tecnologías es que tienen que atender a dos riesgos contradictorios: el riesgo de que no hagan caso a quienes las dirigen y el de que les hagan demasiado caso. Según esta distinción, habría un tipo de accidentes que se deben a la impotencia y otros a la omnipotencia. Nos inquietan más estos últimos que aquellos; desasosiega más estar al arbitrio de los hombres que de las máquinas.

El primer tipo de riesgos es más evidente. Los sistemas complejos suelen funcionar autónomamente y sin ello no podríamos tener ninguna tecnología sofisticada, pero muchas veces esa autonomía se paga con la ingobernabilidad y esos mismos sistemas que hemos configurado se nos escapan de las manos y se vuelven, desbocados, contra nosotros. Toda la literatura está plagada de fantasías (ahora ya muy realistas) acerca de creaciones que cobran vida propia y se rebelan, desde Fausto y Frankenstein hasta la caracterización general del mundo actual como un mundo que está desbocado (Giddens, 1999). Si pensamos en los problemas específicos de la sociedad contemporánea, hay multitud de ejemplos de ese descontrol, y tal vez la dificultad de gobernar los mercados financieros sea el más lacerante. Cuando afirmamos de algo que no es sostenible, por ejemplo, estamos diciendo que fuimos capaces de ponerlo en funcionamiento, pero que no lo somos de asegurar que su funcionamiento futuro obedezca a las intenciones que justificaron su puesta en marcha o, simplemente, que puede colapsar. O pensemos en el ejemplo cotidiano de hasta qué punto se han modificado nuestras relaciones con la tecnología que usamos. Nos hemos acostumbrado a utilizar dispositivos cuya lógica desconocemos y por eso ya casi nadie sabe cómo funcionan, ni los puede arreglar, e incluso el especialista al que recurrimos sustituye piezas, más que reparar. Cuando algo se estropea lo hace irreparablemente.

Desde la más modesta tecnología hasta los procedimientos políticos más sofisticados, los sistemas de gobierno son tanto más inteligentes cuanto más pueden resistir la obstinación de quienes gobiernan

De hecho, el piloto automático es un buen ejemplo de la paradoja que resulta cuando nos preguntamos quién manda aquí. Un piloto cree que pilota aviones, pero, desde este punto de vista, es más bien al revés. El piloto pone en marcha el sistema, sin embargo enseguida es la máquina la que prescribe hasta el detalle todo lo que el piloto debe hacer hasta prescindir abiertamente de él. El piloto tiene que adaptarse a la lógica del vuelo. Un sistema es inteligente cuando puede incluso desobedecer ciertas órdenes absurdas. Nadie en su sano juicio debería lamentar esta circunstancia, pues a ella le debemos una enorme cantidad de dispositivos que nos facilitan la vida y a veces, literalmente, nos la aseguran.

El otro gran riesgo consiste en que las tecnologías se sometan excesivamente a quienes las dirigen. Hay accidentes y catástrofes que no tienen su causa en la falta de poder de quienes dirigían un sistema tecnológico, sino en que ese poder era excesivo. Pensemos en accidentes de tren que se debieron a un exceso de velocidad y en los que ningún dispositivo impedía al conductor sobrepasar la velocidad crítica, como el accidente de tren en Angrois (24 de julio de 2013). El caso más dramático fue el del piloto suicida del avión de Germanwings, que se estrelló contra los Alpes franceses (24 de marzo de 2015). En ambos casos padecimos el exceso de poder de un hombre sobre un artefacto no suficientemente inteligente, pues dejaba al arbitrio de quien lo dirigía la velocidad e incluso la libertad de chocarse contra una montaña, mientras se disparaban todas las alarmas pero no había ningún dispositivo que le obligara a rectificar el rumbo. Hay muchos sistemas que son inteligentes porque son capaces de oponerse a la voluntad expresa de quienes los dirigen. La sofisticación de los dispositivos de conducción se efectúa a través de sistemas que impiden a quien gobierna hacer lo que quiera, desde los límites constitucionales para la política hasta los sistemas de frenado automático en nuestros vehículos.

Lo diré de una manera un tanto provocativa: la paradoja de todo sistema inteligente es que no nos permite hacer lo que queremos. Veamos algunos ejemplos. A lo que más se parece una constitución es a un conjunto de prohibiciones y limitaciones; dificulta incluso su propia modificación, a la que pone condiciones de procedimientos y mayorías cualificadas, para asegurarse así que esos cambios no son una ocurrencia ocasional ni el resultado de una mayoría exigua. El sistema de frenado ABS impide que, en un momento de pánico, frenemos tanto como queramos, lo que pondría en peligro nuestra estabilidad y terminaría haciéndonos más daño que no frenar. Incluso el miedo es un instinto que nos protege de nosotros mismos. Podríamos recordar a este respecto la historia de aquel paciente que sufría un daño cerebral que le impedía experimentar ciertas emociones como el miedo, hasta el punto de poder hacer algunas cosas mejor que los demás como, por ejemplo, conducir por carreteras heladas, evitando la reacción natural de pisar el freno cuando el coche derrapa (Damasio, 2008, 193). Uno puede comprar libremente los productos financieros que quiera (y que pueda, claro), pero la experiencia de la crisis económica nos ha llevado a endurecer las condiciones de compra, obligando a las instituciones crediticias a asegurarse de que quien los compre tenga la solvencia y el conocimiento necesario para adquirir un producto que no está exento de riesgos. De alguna manera, la inteligencia sistémica ha configurado una serie de protocolos para que las personas no puedan hacer lo que quieran cuando hay artefactos especialmente peligrosos de por medio, ya sea un vehículo o un producto financiero. De hecho, hay un mercado floreciente de lo que podríamos llamar, sin exageración, «protección de la gente frente a sí misma», como el de las behavioral apps, que nos advierten, incitan y monitorizan. No siempre los seres humanos queremos hacer lo que deseamos y esa autolimitación es una fuente de comportamientos razonables.

Por eso cabe afirmar sin miedo a equivocarnos que, desde la más modesta tecnología hasta los procedimientos políticos más sofisticados, los sistemas de gobierno son tanto más inteligentes cuanto más pueden resistir la obstinación de quienes gobiernan. Es eso lo que quisieron enseñarnos, entre otros, Adam Smith y Karl Marx: que los sistemas sociales tienen una dinámica propia que actúa con independencia de la voluntad de los actores. Todo el progreso humano se juega en ese difícil equilibrio entre permitir a la voluntad humana gobernar los acontecimientos e impedir al mismo tiempo la arbitrariedad.

El accidente de Germanwings tal vez se haya debido a que esta reflexión en torno a los peligros de quienes dirigen un dispositivo tecnológico se había perdido de vista como consecuencia de la defensa contra el terrorismo, que tiende a considerar al enemigo como alguien situado, literal y metafóricamente, fuera. Recordemos que el piloto que dirigía el avión inició su maniobra para estrellarse contra los Alpes en un momento en el que se había quedado solo. Ni el otro piloto ni el resto de la tripulación pudieron acceder a la cabina bloqueada cuando se percataron de las intenciones del suicida. Nuestros protocolos de seguridad se han sofisticado desde el 11-S pensando más en enemigos de fuera que en los de dentro, en un terrorista externo que en un piloto loco. De ahí, entre otras cosas, que fuera posible cerrar por dentro la cabina del avión o que la puerta estuviera blindada. Toda la paradoja del asunto se resume en cómo hacer frente a los riesgos producidos por nuestras propias medidas de seguridad, cómo evitar las protecciones excesivas.

Un sistema inteligente es, por así decirlo, un sistema que nos protege no solo frente a otros sino también frente a nosotros mismos. Se configura tras la experiencia de los peligros que somos capaces de autogenerar, y frente al atavismo de considerar que nuestro peor enemigo es alguien distinto de nosotros mismos. Para actuar con este tipo de inteligencia contraintuitiva hay que haber caído en la cuenta, por ejemplo, de que una sociedad no está amenazada tanto por armas nucleares en poder del enemigo como por sus propias centrales nucleares; menos por las armas biológicas del enemigo que por ciertos experimentos de su sistema científico; no por la invasión de soldados extranjeros como por la propia criminalidad organizada y la demanda de los propios drogadictos; no por el hambre y la muerte provocadas por la guerra como por la invalidez y la muerte causadas por sus accidentes de tráfico (Willke, 2014, 60). Que lo que más dificulta a las sociedades plurales decidir libremente su destino no es tanto un impedimento exterior como la propia falta de acuerdo en su seno. La solución no pasa por las personas, me permito concluir, sino por mejorar los sistemas que nos protejan contra las personas, contra nuestros errores, nuestra demencia o nuestra maldad.

Una Ilustración del desconocimiento

En un sistema inteligente, para gobernar los actuales entornos complejos cristalizan dos experiencias fundamentales: la de que el conocimiento es más importante que las normas y la de que se ha de gestionar propiamente el desconocimiento, más que el conocimiento.

Comencemos por la importancia de las disposiciones cognitivas para gobernar. El gobierno, entendido como algo más normativo que cognitivo, es demasiado rígido, retrospectivo y lento para ser efectivo en sociedades de conocimiento complejas y dinámicas. Además de la perspectiva normativa para las constelaciones simples y estables, se necesitan otros recursos vinculados al conocimiento, como el saber experto que se traduce en reglas, la capacidad de argumentar y convencer o la posibilidad de aprendizaje colectivo. Si la primera Ilustración giraba en torno a la adquisición de conocimiento para el progreso individual y social, la segunda Ilustración debería apuntar a un nivel más amplio del aprendizaje, a la inteligencia de las organizaciones y las instituciones, a las formas organizadas de inteligencia colectiva. Para las organizaciones, construir inteligencia colectiva significa que el aprendizaje ya no acontece simplemente por evolución o mera adaptación, sino que se debe organizar sistemáticamente en procesos reflexivos de gestión del conocimiento.

En un sistema inteligente, para gobernar los actuales entornos complejos cristalizan dos experiencias fundamentales: la de que el conocimiento es más importante que las normas y la de que se ha de gestionar propiamente el desconocimiento, más que el conocimiento

Pero tan decisivo como la generación de conocimiento es haber comprendido la función que desempeña la ignorancia en una sociedad del conocimiento; por qué es importante la ignorancia para la adquisición y reproducción de conocimiento, para la emergencia y el cambio de las instituciones. Una sociedad del conocimiento es aquella cuya inteligencia colectiva consiste en manejar con prudencia y racionalidad la ignorancia en la que nos vemos obligados a actuar, o sea, en última instancia, una sociedad del desconocimiento. Podríamos formularlo de una manera menos dramática, afirmando que es una sociedad en la que no tenemos más remedio que aprender a manejarnos con un saber incompleto. Un aspecto fundamental de la ignorancia colectiva es la cuestión de la «ignorancia sistémica» (Willke, 2002, 29) cuando nos referimos a riesgos sociales, futuros, a constelaciones de actores dentro de las cuales demasiados eventos están relacionados con demasiados eventos, de modo que queda desbordada la capacidad de decisión de los actores individuales.

Si en otras épocas los métodos dominantes para combatir la ignorancia consistían en eliminarla, hoy podemos asumir que hay una dimensión irreductible en la ignorancia, por lo que debemos entenderla, tolerarla e incluso servirnos de ella y considerarla un recurso (Smithson, 1989; Wehling, 2006). Un ejemplo de ello es el hecho de que en una sociedad del conocimiento el riesgo que supone «la confianza en el saber de los otros» se haya convertido en una cuestión clave (Krohn, 2003, 99). La sociedad del conocimiento se puede caracterizar precisamente como aquella que ha de aprender a gestionar ese desconocimiento.

Los límites entre el saber y el no-saber no son incuestionables, ni evidentes, ni estables. En muchos casos es una cuestión abierta cuánto se puede todavía saber, qué es lo que ya no se puede saber o qué no se sabrá nunca. No se trata del típico discurso de humildad kantiana que confiesa lo poco que sabemos y qué limitado es el conocimiento humano. Es algo incluso más impreciso que esa «ignorancia especificada» de la que hablaba Merton; me refiero a formas débiles de desconocimiento, como el que se supone o se teme, del que no se sabe exactamente lo que no se sabe y hasta qué punto no se sabe.

La apelación a los unknown unknowns, que están más allá de las hipótesis de riesgos científicamente establecidas, se ha convertido en un argumento poderoso y controvertido en las discusiones sociales en torno a las nuevas investigaciones y tecnologías. Por supuesto que sigue siendo importante ampliar los horizontes de expectativa y relevancia, de manera que sean divisables los espacios del no-saber que hasta ahora no veíamos, y proceder así al descubrimiento del «desconocimiento que desconocemos». Pero esta aspiración no debería hacernos caer en la ilusión de creer que el problema del no-saber que se desconoce puede resolverse de un modo tradicional, es decir, disolviéndolo completamente en virtud de más y mejor saber. Incluso allí donde se ha reconocido expresamente la relevancia del no-saber desconocido sigue sin saberse lo que no se sabe y si hay algo decisivo que no se sabe. Las sociedades del conocimiento han de hacerse a la idea de que van a tener que enfrentarse siempre a la cuestión del no-saber desconocido; que nunca estarán en condiciones de saber si, y en qué medida, son relevantes los unknown unknowns, frente a los que están necesariamente confrontadas.

A partir de ahora nuestros grandes dilemas van a girar en torno al decision-making under ignorance (Collingridge, 1980). Ahora bien, la decisión en condiciones de ignorancia requiere nuevas formas de justificación, legitimación y observación de las consecuencias. ¿Cómo podemos protegernos de amenazas frente a las que por definición no se sabe qué hacer? ¿Y cómo se puede hacer justicia a la pluralidad de las percepciones acerca del nosaber, si desconocemos la magnitud y la relevancia de lo que no se sabe? ¿Cuánto no-saber podemos permitirnos sin desatar amenazas incontrolables? ¿Qué ignorancia hemos de considerar como relevante y cuánta podemos no atender como inofensiva? ¿Qué equilibrio entre control y azar es tolerable desde el punto de vista de la responsabilidad? Lo que no se sabe ¿es una carta libre para actuar o, por el contrario, una advertencia de que deben tomarse las máximas precauciones?

Estas son las razones profundas en virtud de las cuales una democracia del conocimiento no está gobernada por sistemas expertos, sino desde la integración de los mismos en procedimientos de gobierno más amplios, que incluyen necesariamente decisiones en ámbitos donde la ignorancia es irreductible. Nuestras principales controversias democráticas giran precisamente en torno a qué ignorancia podemos permitirnos, cómo podemos reducirla con procedimientos de previsión o qué riesgos es oportuno asumir. Estamos ante el desafío de aprender a gestionar esas incertidumbres, que nunca pueden ser completamente eliminadas, y transformarlas en riesgos calculables y en posibilidades de aprendizaje. Las sociedades contemporáneas tienen que desarrollar no solo la competencia para solucionar problemas, sino también la capacidad de reaccionar adecuadamente ante lo inesperado.

Si la primera Ilustración aspiraba a la claridad y la exactitud, la segunda debe manejarse con la inabarcabilidad, la inexactitud y la incertidumbre. La primera Ilustración suponía que la agregación de componentes racionales no planteaba ningún problema; lo que tenemos ahora es que la convergencia de las partes (de los intereses individuales y la interdependencia de los sistemas) da lugar en demasiadas ocasiones a una totalidad irracional: los saberes no se acumulan sino que generan confusión; los intereses no se agregan sino que se neutralizan; el incremento de información no aumenta la transparencia sino la opacidad del conjunto; las decisiones, aun siendo individualmente racionales, producen encadenamientos fatales. ¿Qué teoría y praxis de gobierno responden a esta nueva constelación? El gobierno de los sistemas inteligentes podría ser una denominación apropiada de este nuevo desafío.

BIOGRAFÍA

DANIEL INNERARITY

Catedrático de Filosofía política y social, investigador de Ikerbasque en la Universidad del País Vasco y director del Instituto de Gobernanza Democrática en Filosofía. Ha sido profesor invitado en diversas universidades, recientemente en el Robert Schuman Centre for Advanced Studies del Instituto Europeo de Florencia, así como en la London School of Economics. Es director de Estudios Asociados de la Fondation Maison des Sciences de l’Homme de París. Entre sus últimos libros destacan La democracia del conocimiento, (Premio Euskadi de ensayo 2012); La humanidad amenazada: gobernar los riesgos globales (con Javier Solana); La sociedad invisible (Premio Espasa de ensayo 2004) y La transformación de la política (Premio Nacional de Literatura en la modalidad de ensayo 2003). Es colaborador habitual en El País, El Correo, Diario Vasco y Claves de razón práctica. En 2013 recibió el Premio Príncipe de Viana de la Cultura, otorgado por el Gobierno de Navarra. La revista francesa Le Nouvel Observateur lo incluyó en una lista de los veinticinco grandes pensadores del mundo.

Referencias

Descarga Caminos hacia la sostenibilidad S.M.A.R.T. (PDF)

Collingridge, D., The Social Control of Technology, St. Martin’s Press,
Nueva York, 1980.

Damásio, A., Descartes’ Error: Emotion, Reason, and The Human
Brain, Avon Books, Nueva York, 2005.

Geyer, R. y Rihani, S., Complexity and Public Policy. A new Approach
to 21st Century Politics, Policy and Society, Routledge, Londres, 2010.

Giddens, A., Runaway World: How Globalization is Reshaping Our
Lives, Routledge, Londres, 2010.

Haldane, A., «The Dog and the Frisbee», discurso pronunciado en el
simposio sobre política celebrado en Jackson Hole (Wyoming), el 31
de agosto de 2012, [tttp:www.bis.org/search/?q=haldane+dog+and+frisbee].

Krohn, W., «Das Risiko des (Nicht-)Wissens. Zum Funktionswandel
der Wissenschaft in der Wissensgesellschaft», en Böschen, S. y
Schulz-Schaeffer, I., eds., Wissenschaft in derWissensgesellschaft,
Wiesbaden: Westdeutscher Verlag, pp. 87-118.

Luhmann, N., Die Gesellschaft der Gesellschaft, Suhrkamp, Fráncfort,
1997.

Smithson, M., Ignorance and Uncertainty. Emerging Paradigms,
Springer Nueva York, 1989.

Wehling, P., Im Schatten des Wissens? Perspektiven der Soziologie des
Nichtwissens, UVK Verlagsgesellschaft, Constanza, 2006.

Willke, H., Dystopia. Studien zur Krisis des Wissens in der modernen
Gesellschaft, Suhrkamp, Fráncfort, 2002.

— (2014), Regieren: Politische Steuerung komplexer Gesellschaften,
Springer, Wiesbaden.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s