Aportaciones del filósofo Luciano Floridi a la ética de la inteligencia artificial
En este ensayo Carlos Colina (Caracas, 1960) revisa las aportaciones del filósofo italiano Luciano Floridi a la ética de la inteligencia artificial, destacando su influencia en la formulación del marco regulatorio europeo sobre tecnologías digitales. A partir de conceptos como responsabilidad, transparencia y autonomía humana, el texto analiza cómo la IA obliga a replantear las nociones clásicas de ética en el contexto de las plataformas tecnológicas y la automatización contemporánea. Entre el pensamiento filosófico y la incidencia institucional, la obra de Floridi aparece como uno de los intentos más influyentes por construir una gobernanza crítica de la inteligencia artificial en el siglo XXI.
El desarrollo de la inteligencia artificial, como de cualquier otro sistema sociotécnico, conduce a replantear las nociones clásicas de la ética de responsabilidad y límites. En este terreno, como en tantos otros asuntos correlacionados, la Unión europea, tiene, paradójicamente la perspectiva más novedosa.
El filósofo italiano Luciano Floridi, cuyas tesis son simultáneamente autorales, grupales e institucionales, ha coadyuvado, entre otros, a la conformación de la perspectiva ética del viejo continente. De hecho, lideró el equipo que diseñó el pionero “Marco ético para una sociedad con buena IA”, en el año 2018. Asimismo, ha sido uno de los impulsores de la reciente Ley de IA.
En su portentoso currículo, ha sido profesor de la Universidad de Oxford y es actualmente director del nuevo Centro de Ética Digital de Yale (CED), donde dirige a un grupo de investigadores de alta cualificación que aborda las implicaciones éticas, legales y sociales de las innovaciones digitales y sus consecuencias humanas, sociales y ambientales. En realidad, su reflexión personal en el área antecede al auge de Google, Amazon, Facebook y otros gigantes tecnológicos.
En general, ha suscrito una visión filosófica orientada a la solución de problemas prácticos. Así pues, la diagnosis y entramado categorial de sus equipos de trabajo, han permeado los documentos jurídicos del a UE. El papel de asesor ha comportado un efecto ambivalente, por una parte, le ha permitido aterrizar con claridad conceptual en muchos problemas concretos y dar aportes sociales de singular relevancia, pero por otra parte, en algunos pocos casos, ha menguado su densidad analítica, impidiéndole ponderar el rol de ciertos intereses creados de tipo político y económico. En todo caso, la revisión de su legado reflexivo es ineludible.
Así, cabe destacar como antecedente fundamental de sus planteamientos actuales, el foro global pionero AI-4People, iniciativa que fundó, junto a Michelangelo Barichi Bonvicini, presidente de Atomiun-EISMD.
Marco Unificado de Principios Éticos para una Sociedad de IA Buena
El Marco Unificado de Principios Éticos para una Sociedad de IA Buena: Oportunidades, Riesgos, Principios y Recomendaciones, fue una experiencia auspiciada por el Instituto Europeo Atomiun para la Ciencia, los Medios y la Democracia, en el año 2018 (EISMD). A este proyecto relevante le preceden, a su vez, seis documentos de sendas iniciativas, que generaron principios con un alto grado de coherencia y coincidencia, y que nos permitimos enumerar, seguidamente:
1. Principios de Asilomar (Instituto de la vida futura. Cambridge, Massachusetts).
2. Declaración de Montreal (Universidad de Montreal. 2017).
3. Diseño éticamente alineado: Una visión para priorizar el bienestar humano con sistemas autónomos e inteligentes(Instituto de Ingenieros Eléctricos y Electrónicos, conocido por sus siglas IEEE, 2017).
4. Declaración sobre Inteligencia Artificial, Robótica y Sistemas Autónomos (Grupo de Ética en Ciencias y Nuevas Tecnologías. GEE. CE. 2018).
5. IA en el Reino Unido: ¿preparada, dispuesta y capaz? (Comité de Inteligencia Artificial. Cámara de los Lores, 2018).
6. Los principios de la Asociación sobre IA (Organización de múltiples actores sociales especializados, organizaciones civiles y compañías de IA2018).
El Marco Unificado de Principios Éticos para una Sociedad de IA Buena es una aproximación europea que predefinía su apertura a otras perspectivas y su ajuste a los cambios futuros. En realidad, el equipo aludido se puso de acuerdo en reducir casi cinco decenas de principios éticos a cinco, cuatro heredados y uno específico, relacionado directamente con el desarrollo tecnológico actual, a saber: benevolencia, no maleficiencia, autonomía humana, justicia y explicabilidad. Los primeros cuatro principios son encontrados en otros contextos de ética aplicada, especialmente en la bioética, en donde son consensuales. El quinto principio de explicabilidad se relaciona específicamente con la IA.
A continuación, se definen los principios señalados:
1.-Beneficencia: es un principio tendente a promover el bienestar del ser humano y de la biósfera entera.
2.-No maleficencia: este principio establece la necesidad de prevenir el mal uso de la IA, así como consecuencias del uso indiscriminado y desregulado. La maleficencia puede ser un efecto accidental o deliberado. Verbigracia, la violación de la privacidad, vulneración de la seguridad, estímulo de la carrera armamentista y el comportamiento imprevisible de las máquinas o la promoción de conductas humanas indeseables.
3.-Autonomía: este principio sobre el poder de decisión humana, tiene como norte un equilibrio entre el poder que conservamos y el que delegamos a los dispositivos de la IA. En consecuencia, dicta que la autonomía del ser humano debe ser promovida y, por el contrario, se prescribe restringir la independencia de las máquinas. Esta última debe ser reversible cuando se considere perentorio, en función de restablecer la primera.
4.-Justicia: Este principio se refiere a la distribución solidaria y equitativa de los recursos y beneficios de la IA, excluyendo cualquier tipo de discriminación.
5.-Explicabilidad: esta noción surge por la necesidad de que las decisiones de la IA sean inteligibles y comprensibles (transparentes). Es perentorio un nivel de explicación adecuado y plausible de cara a todos los posibles afectados
Los autores formulan 20 recomendaciones prácticas que tienen como meta que la IA se diseñe y desarrolle, generando empoderamiento y autonomía, incrementando los beneficios y compartiéndolos equitativamente entre todos. La aproximación multistakeholder y la colaboración generalizada entre todos los actores sociales es imprescindible, a saber; desarrolladores, usuarios y diseñadores de políticas y normas. Las recomendaciones señaladas anteriormente implican evaluaciones previas, desarrollos, incentivos y apoyos específicos.
Para Floridi y su equipo de altos expertos, la adopción de un enfoque ético de la IA comporta una doble ventaja. Por un lado, permite que las organizaciones aprovechen eficazmente esta tecnología en concordancia con los valores compartidos, y, por otro lado, se pueden anticipar y evitar, o al menos minimizar, los errores socialmente costosos. Sin embargo, para los autores, el cumplimiento de las futuras leyes y normas, basadas en una ética fundamentada, es evidentemente necesario pero realmente insuficiente. “Compliance with the law is merely necessary (it is the least that is required), but signifcantly insufcient (it is not the most than can and should be done) (Floridi 2018:694).”
Según Kreowski (2022), esta iniciativa es de gran importancia y se fundamenta en un estudio exhaustivo de la discusión mundial del tema. No obstante, la IA es sólo una tecnología emergente, entre otras, tales como la biotecnología y la nanotecnología, que también deben ser evaluadas. Asimismo, tiene como falencias que no profundiza en la dimensión política y económica del problema y no explica por qué la situación ética actual no es nada satisfactoria. Muchos expertos y compañías se niegan a establecer límites efectivos a sus desarrollos, y acometen los proyectos de acuerdo a un criterio exclusivamente crematístico, cuando en realidad los algoritmos y dispositivos de IA pueden tornarse inescrutables e incontrolables, y resultar riesgosos.
Ahora bien, por su parte, Luciano Floridi celebra que se hayan retomado, en este caso, los rudimentos de la ética aplicada en general y de la bioética en particular, superando de esta manera la confusión y permisividad generada por la antigua proliferación de principios. En realidad, su perspectiva compartirá también toda la relevancia y potencia de esta iniciativa y algunas de las falencias señaladas, con los desarrollos y actualizaciones de rigor, en el camino hacia la ley de IA de la Unión Europea.
Perspectiva
Para Luciano Floridi, corresponde a la filosofía identificar y analizar los retos que nos está planteando la revolución digital, y, sobre todo, configurar de modo imaginativo soluciones conceptuales: óptimas, convincentes y viables. En esta dirección, es partidario de incorporar de manera colaborativa a la mayoría de las partes interesadas, a saber: tecnólogos, especialistas en ética, políticos y público en general, entre otros. La dinámica cambiante de las sociedades exige que los marcos hermenéuticos y normativos se adapten y ajusten continuamente.
El panorama ético ha cambiado con las mutaciones tecnológicas. De esta manera, los antiguos problemas éticos se han visto exacerbados o remodelados y han surgido otros de singular novedad. En todo caso, el desiderátum es conformar un futuro socialmente adecuado y un futuro sostenible.
Ante la celeridad de la revolución electrónica, el autor enfatiza en la perentoriedad de anticiparnos a los cambios socioeconómicos y culturales, de manera de evitar impactos negativos irreversibles.
La IA debe ser guiada para que beneficie a la humanidad y al planeta, combatiendo sus riesgos, debidos al mal uso, el sobreuso o, inclusive, a su subutilización. Lo azul (digital) y lo verde deben hacer sinergia como parte del proyecto humano del siglo XXI. Es decir, la meta es una IA beneficiosa para la sociedad que, a su vez, sea sostenible. Asimismo, debe favorecer a los negocios, en función de la creación de riqueza y su mejor distribución. De hecho, la legislación europea se propone servir a esos tres aspectos; sociedad, ambiente y negocios.
El autor plantea la necesidad de directrices, normas técnicas, éticas y jurídicas que respeten los diferentes contextos culturales, pero defendiendo los derechos humanos universales. El marco ético y normativo es fundamental para promover y facilitar el desarrollo de esta tecnología, en las áreas donde su impacto sea positivo e inclusive donde no hacerlo sería contraproducente, como en la medicina, en la prevención, reducción del sufrimiento y cura de enfermedades.
Luciano Floridi se pronuncia en contra del relativismo ético y a favor de apuntalar los consensos, tales como los derechos humanos y los 17 Objetivos de Desarrollo Sostenible (ODS, goals). A su parecer, la diversidad cultural global no ha sido óbice para que una gran mayoría de países hayan suscrito estos dos grandes marcos y debemos esperar que el resto minoritario cambie, sin forzarlo. En realidad, debido a la magnitud de las megaempresas tecnológicas, el esfuerzo regulatorio debe estar en manos de organismos supranacionales.
En nuestros días, poseemos una tecnología superpoderosa con una extraordinaria capacidad de resolver problemas, que se han tornado complejos y globales. En su criterio, pueden hacen mejor que nosotros muchas cosas, con mayor eficacia, pero con inteligencia cero, asunto que no discutirermos aquí, pero que abordaremos muy pronto en otro lugar.
El enfoque optimista general no es óbice para señalar efectos perniciosos, reales o potenciales, y el resurgimiento de modalidades de injusticia racial y de género. En la década pasada, podemos mencionar como ejemplos emblemáticos el algoritmo judicial Compas (Correctional Offender Management Profiling for Alternative Sanctions) y el algoritmo de contratación de Amazon. El primero, empleado en varios estados de USA para predecir la reincidencia criminal, perjudicaba doblemente a los acusados negros sobre los acusados blancos, afectando decisiones fundamentales como la libertad condicional y la duración de las penas. El segundo, favorecía marcadamente a los candidatos del sexo masculino, debido a que había sido entrenado con los datos de los diez años anteriores, cuyas estadísticas reflejaban el sesgo histórico de la industria tecnológica.
Para Floridi, la desafortunada tendencia al uso de estas herramientas para resolver problemas de manera eficiente, eficaz y a bajo coste, pero con efectos negativos, reales o potenciales, es muy marcada. Ahora bien, los errores cometidos hasta ahora, no minimizan su optimismo a largo plazo, porque, las oportunidades serían tan grandes como los riesgos.
El autor desdeña explícitamente del utilitarismo, porque conduce a una disminución del valor de la ética, al propiciar acciones solamente cuando son útiles. Floridi abreva del deontologismo y la ética de la virtud. “Hacer las cosas porque es lo correcto, aunque sea inútil. Porque es bueno hacerlo. No cambias el mundo pero eres mejor persona. Lo hiciste por razones morales, porque tienes valores” (Puerto de Ideas, 2022).
Problemas cruciales y nociones éticas correlacionadas
Para Floridi la IA debe estar al servicio de la humanidad sin menoscabar la autonomía humana. Por el contrario, debe aumentar las capacidades de las personas y fortalecer la cohesión social. La normativa europea en el campo introduce la noción clave de supervisión humana.
El presente y el futuro digital deben ser asumidos de manera responsable. Es necesario conducir a la IA y no ser conducida por ella. De este modo, el autor asume el principio deontológico kantiano: la humanidad debe ser siempre un fin y nunca un medio. “Nosotros tenemos también que decidir que hace, como utilizarla y en qué momento. Nosotros somos el problema y la solución” (MONDOFUTURO, 2022). El ejemplo de los automóviles autónomos y de la domótica se usan para significar que el asunto es establecer quien se adapta a quien: nuestras áreas citadinas a las tecnologías emergentes o estas últimas al entorno urbano. La perspectiva debe ser ecológica, en este caso específico, en el sentido lato del término.
Los desafíos de la IA poseen una naturaleza global, entre ellos, la consideración de su impacto ambiental y los riesgos para la seguridad. En realidad, asumirlos implica la necesidad de apelar a la colaboración internacional. La IA está democratizando los riesgos, porque todos los sectores sociales y todo el globo se ven afectados.
El progreso tecnológico en el área debe armonizarse con la gestión ecológica, con el objetivo de mitigar la huella específica de la IA. Por una parte, los centros de datos deben utilizar fuentes de energía renovables. Por otra parte, los sistemas de IA deberían ser reciclables y reutilizables. Asimismo, deben usarse en función de los ODS de la ONU. No pueden ser el problema sino la solución.
A decir verdad, en la actualidad, el impacto ambiental de los centros de datos es monstruoso, porque consumen ingentes cantidades de agua y energía eléctrica para los sistemas de refrigeración, lo que implica emisiones de gases de efecto invernadero. Además, la producción de los dispositivos de IA consume ingentes recursos hídricos y tierras raras.
La progresiva autonomización decisional de los sistemas de IA y la participación de múltiples agentes en todas las fases de la tecnología, cuyo grado de responsabilidad es difícil de determinar, pone sobre el tapete las nociones interrelacionadas de responsabilidad, transparencia y explicabilidad, sobre todo, cuando incurren en errores relevantes, tales como la reproducción y amplificación de los sesgos sociales. Para contrarrestar este problema, debe promoverse la transparencia y la rendición de cuentas en todas las fases de la conformación de dichos sistemas tecnológicos. Cuando algo ha salido mal, debemos contar con herramientas potentes y modelos no tradicionales para explicarlo. La respuesta no puede ser que el computador lo dice o que no sabemos que ocurrió, ni tampoco responder apelando al modelo causal simple.
La caja negra conlleva a que la explicabilidad sea crucial para poder reconfigurar la tecnología y atribuir responsabilidades. Necesitamos mucha inteligencia humana y gobernanza. “Es una problema complicado porque la tecnología actual distribuye la responsabilidad entre muchas personas y hay que esforzarse en identificar todas las personas de la cadena, todas las acciones humanas implicadas que condujeron al problema.” (Puerto de Ideas, 2022). En suma, se requieren modelos de responsabilidad distribuidos que superen las insuficiencias de los esquemas tradicionales.
La noción de IA explicable está vinculada con la necesidad de entender la causalidad de las decisiones y acciones, para impulsar la mejora de los sistemas e inclusive, el denominado «desaprendizaje de las máquinas», ahí donde sea necesario. Las decisiones eventuales de delegación de las elecciones específicas deben basarse en el conocimiento de cómo actuaría la IA en cada caso.
La IA plantea retos y problemas sin precedentes que no pueden comprenderse a partir de los marcos éticos y jurídicos tradicionales.
Por otra parte, la equidad implica acopiar datos diversos e inclusivos en la etapa de recopilación. Igual cuidado debe darse en el entrenamiento de los modelos y su aplicación concreta. La evaluación debe ser continua e incluir control de calidad, auditorias periódicas y el desarrollo de algoritmos para detectar y corregir sesgos.
El problema de la vigilancia electrónica y la conculcación de la privacidad, que habíamos experimentado ya en nuestra experiencia con las redes sociales, se intensifica con la enorme capacidad de la IA para acopiar, analizar y cruzar datos de carácter personal, en distintas áreas. Esta situación demanda la instrumentación de valores como la confidencialidad y el consentimiento informado, en todo el proceso. La privacidad no debería sacrificarse en aras de nuestro confort, de criterios de eficiencia o por la imposición controladora de los poderes fácticos. En efecto, se requiere de la creación de sistemas de IA respetuosos de la privacidad, desde la ética por diseño, así como asegurar la protección legal de los datos personales en todo el proceso.
El problema de la seguridad es central, porque los ciberataques no incluyen solamente a naciones y corporaciones, sino también a los mismos sistemas de IA. En general, se han desarrollado técnicas de piratería avanzadas: ataques de phishing, incidencias a gran escala sobre el software y el empleo del machine learning para violar los sistemas de cifrado. El desarrollo de la computación cuántica podría tornar más engorrosa esta situación.
La IA plantea retos y problemas sin precedentes que no pueden comprenderse a partir de los marcos éticos y jurídicos tradicionales. Las usuales nociones de creatividad y autoría se ven desafiadas.
En primer lugar, estos sistemas se entrenan con datos que pueden estar protegidos por derechos de autor, lo que implicaría su vulneración. Asimismo, la IA puede generar contenidos muy parecidos a las obras incluidas en los datos de entrada. Establecer, el carácter lícito de estas situaciones e identificar los actores responsables es un tema controvertido.
En segundo lugar, existe la interrogante de si las creaciones exclusivas de los sistemas de IA o los supervisados por seres humanos, deben estar protegidos por los derechos de autor. El concepto de autoría parece haberse ampliado y la legislación debería responder a este fenómeno. Además, es muy difícil demostrar la originalidad de un contenido, por la enorme y acelerada cantidad y la elevada calidad de obras generadas.
En tercer lugar, “el papel de la IA en los deepfakes (falsificaciones digitales hiperrealistas) plantea graves retos en lo que respecta a la protección de los derechos individuales y las marcas registradas, el daño a la reputación, la lucha contra la desinformación y el engaño al público.”(2024)
En suma, la propiedad intelectual debe reconfigurarse y adaptarse a la nueva modalidad de producción de contenidos, con normas más flexibles, el desarrollo de acuerdos internacionales para los asuntos transfronterizos, el uso de marcas de agua y soluciones de software para la certificación de la autoría y la procedencia. El propósito debería ser la protección de la creatividad humana, los derechos individuales y el patrimonio cultural.
Por cierto, el 28 de octubre de 2025, un tribunal de New York aceptó la demanda que el Sindicato de Escritores introdujo en el año 2023 contra OpenAI, por el uso no autorizado de obras con derechos de autor para entrenar a ChatGPT. En el fallo se indica que existe similitud entre los resultados del modelo de lenguaje y las obras originales y habría que indagar si se trata de coincidencia creativa o una reproducción sustancial que vulnera los derechos aludidos.
Entre los «problemas sin precedentes» se encuentra la hipersuasión, que erosiona la autonomía y manipula a los individuos en sus distintas elecciones. La nueva y sofisticada persuasión algorítmica recurre a la personalización y la capacidad predictiva. Se limita y moldean las elecciones individuales y sus decisiones, guiando de manera sutil las creencias, emociones y acciones. La usual y programada sugerencia de opciones modela las preferencias, desde las decisiones más triviales hasta las más relevantes.
La hipersuasión determina el contenido, la información y las noticias a las que se expone la gente. De este modo, fomentan cámaras de eco y burbujas de filtro que estimulan la polarización. La esfera pública, cuya unidad es vital para la deliberación democrática, resulta fragmentada. En el campo político, la opinión pública y el comportamiento electoral se ven afectados por información sesgada, narrativas políticas de posverdad, campañas microdirigidas y deepfakes.
En la perentoria línea anticipatoria, se está produciendo un desajuste entre la demanda y la oferta laboral por el desplazamiento de trabajadores de cuello blanco y se está ampliando la brecha digital, por lo tanto, se requiere de reformas educativas, programas de reciclaje profesional y redes de seguridad social.
A modo de cierre analítico
Ciertamente, los problemas descritos por Luciano Floridi, sintentizan los ítems tratados por la literatura especializada y nos permiten identificar el estado del arte de la incidencia de la inteligencia artificial en nuestros días, y sobre todo, la respuesta europea desde la denominada ética de la IA.
En líneas generales, el pluralismo ético del filósofo romano y de otros autores, con la inclusión del enfoque de derechos humanos, parece insoslayable. Así como el ineludible beneficio trilateral de lo ecológico, lo digital y del mercado.
El autor analizado tuvo el tino de avanzar del infocentrismo inicial riesgoso de su filosofía de la información de la primera década del siglo, hacia una perspectiva que integra otros «niveles de abstracción» y otras macroéticas, y que se configura ahora como una megaética de la inteligencia artificial.
Identificar y examinar los desafíos de la revolución digital y de la IA es una tarea transdisciplinaria, y formular de modo creativo soluciones conceptuales ad hoc amerita también el concurso multidisciplinario, que no puede excluir a la sociología, la antropología y demás especialidades humanísticas, además de la imprescindible participación de las ciencias e ingenierías.
Desde hace mucho tiempo, la sociología y la filosofía de la tecnología concluyeron que los riesgos e incidencias de una innovación tecnológica no podían reducirse al uso. En sí mismas, las tecnologías son modos de vida e incorporan cambios, más allá de su utilización en una u otra dirección. Enfocar los problemas en la mera noción de uso es a todas luces simplista. Además, en el caso de la IA, la noción meramente instrumental de la tecnología también hace aguas, porque sus dispositivos no son meros utensilios, sino que pueden alcanzar diversos grados de agencia autónoma.
No obstante, esto no significa que deba minimizarse la importancia de evaluar los usos en numerosas situaciones. Por ejemplo, en el resurgimiento de modalidades de injusticia racial y de género, perfectamente corregibles con otras formas de entrenamiento de los sistemas de IA. Que la izquierda marxista y el populismo hayan manipulado ramplonamente con la discriminación en variados ámbitos y dimensiones sociales, no significa que no deba ser abordada como problema pero, naturalmente, de otra forma y con otras respuestas, más racionales y sustraídas de la ideologización en cuestión y de la centralidad asignada. Es un asunto, entre muchos otros.
La institucionalización de normas a nivel internacional no constituye un problema baladí, debido a la heterogeneidad cultural y sobre todo política, en donde los sistemas autoritarios y totalitarios son reacios a suscribir normativas consensuadas. Que cambien no parece ser un asunto voluntarista ni subjetivista. Aquí, como en otras áreas, falta el análisis de los intereses creados de tipo económico y político. Otro asunto relevante es el deterioro organizacional y reputacional de muchos organismos internacionales, que tienden a actuar de manera discrecional y sesgada. No obstante, esta situación no puede propiciar el inmovilismo, sino plantear la refundación de las entidades aludidas.
©Trópico Absoluto
Referencias
Cedro (11/11/2025). “Luz verde a la demanda colectiva contra OpenAI en EE.UU”. https://www.cedro.org/sala-de-prensa/noticias/noticia/2025/11/11/luz-verde-a-la-demanda-colectiva-contra-openai-en-ee.uu
Kreowski, Hans-Jörg (2022). A World Worth Living. Can Artificial Intelligence Help to Reach the Goal. New Explorations. Studies in Culture & Communication. Vol 2 No 3. Special Edition: Digital Humanism and the Future of Humanity. Avalaible: file:///C:/Users/Usuario/Downloads/15+kreowski.pdf
MONDOFUTURO (02.06.22). – Luciano Floridi: etica dell’intelligenza artificiale”.Entrevistadora: Simone Regina. https://www.youtube.com/watch?v=QPnRIVpM6js
Puerto de Ideas (05.12.2022) “La encrucijada ética entre robots y algoritmos – Luciano Fioridi y Massimo Turatto” https://www.youtube.com/watch?v=C76U1TVaST8
Floridi, Luciano(20/04/2024). “La ética de la inteligencia artificial: problemas exacerbados, problemas renovados, problemas sin precedentes” – Introducción al número especial de la revista American Philosophical Quarterly dedicado a la ética de la IA https://ssrn.com/abstract=4801799 o http://dx.doi.org/10.2139/ssrn.4801799
Dr Podcast Audio Factory (24.04.24) “Intelligenza Artificiale e Etica: Un Dialogo con Luciano Floridi”. Entrevistadora: Manuela Ronchi. https://www.youtube.com/watch?v=4uYuEZAj_lE
Carlos Colina (Caracas, 1960), estudió sociología en la Universidad Central de Venezuela. Especialista en comunicología en la Universidad Complutense de Madrid. Profesor Titular de la UCV e investigador del ININCO (1993-2018). Catedrático de Teoría de la Comunicación. Orden José María Vargas. Posee una amplia obra ensayística con cinco decenas de artículos en revistas especializadas y arbitradas. Entre sus veinte y un libros en calidad de autor, coautor y editor encontramos dos premios nacionales del CENAL: por Ciudades Mediáticas (Caracas: UCV, 2005) y mención honorífica por Mediaciones digitales y globalización (Caracas: UCV,2003). Además ha publicado: Sabanagay. Disidencia y diversidad sexual en la ciudad (Caracas: Alfa, 2009), Arcoiris Mediático. Comunicación, género y diversidad sexual (Madrid, 2011), e Hipercomunicacion. Cyborgs, Inteligencia artificial y metaverso (Caracas: Abediciones-UCAB,2024).
0 Comentarios