<?xml version="1.0" encoding="UTF-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" version="2.0" xmlns:media="http://search.yahoo.com/mrss/"><channel><title><![CDATA[RSS Tecnología en ABC Color]]></title><link>https://www.abc.com.py</link><atom:link href="https://www.abc.com.py/arc/outboundfeeds/rss/" rel="self" type="application/rss+xml"/><description><![CDATA[RSS Tecnología en ABC Color]]></description><lastBuildDate>Wed, 15 Apr 2026 23:15:46 +0000</lastBuildDate><language>es</language><copyright>abc color</copyright><ttl>1</ttl><sy:updatePeriod>hourly</sy:updatePeriod><sy:updateFrequency>1</sy:updateFrequency><item><title><![CDATA[Condenan a 40 años de prisión a cinco acusados por asesinato de doce personas en Ecuador]]></title><link>https://www.abc.com.py/tecnologia/2026/04/15/condenan-a-40-anos-de-prision-a-cinco-acusados-por-asesinato-de-doce-personas-en-ecuador/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/15/condenan-a-40-anos-de-prision-a-cinco-acusados-por-asesinato-de-doce-personas-en-ecuador/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 22:45:06 +0000</pubDate><content:encoded><![CDATA[<p><p>La Fiscalía informó este miércoles que los magistrados determinaron que los cuatro hombres fueron autores de los delitos de asesinato y tráfico de armas, mientras que la mujer fue sentenciada como cómplice y recibió la misma pena.</p></p><p><p>La masacre ocurrió la noche del 17 de abril del año pasado, en el interior de la gallera La Fortaleza del municipio de El Carmen, en Manabí, cuando alrededor de quince personas, vestidas con prendas similares a las que usan los policías y militares y portando armas de fuego de largo alcance, irrumpieron en el lugar y dispararon en repetidas ocasiones.</p></p><p><p>Entre las doce personas asesinadas estaba un adolescente de 14 años.</p></p><p><p>Los atacantes huyeron inmediatamente y la Policía desplegó un operativo en el que fueron detenidas las cinco personas sentenciadas, "quienes tenían en su poder una gran cantidad de armas", de acuerdo al Ministerio Público.</p></p><p><p>El crimen quedó registrado en las cámaras de seguridad del lugar, lo que fue presentado durante el juicio, junto a otras pruebas como los testimonios de los policías que detuvieron a los sospechosos, armas y balas, actas de levantamiento de los cadáveres e informes de pericias balísticas, entre otras.</p></p><p><p>Ecuador está desde 2024 bajo un estado de "conflicto armado interno" declarado por el presidente Daniel Noboa para intensificar la lucha contra las bandas criminales, que fueron denominadas como "terroristas".</p></p><p><p>Pese a esa declaratoria, Ecuador cerró 2025 como el año más violento de su historia, al contabilizar un récord de 9.252 homicidios.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/QNEWxwJwVJqHUA92TGs2YlsxM6s=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/7YALIVTKYJFS7CTBCT4YTIMKCI.jpg"/></item><item><title><![CDATA[La transmisión de sesgos en IA: ¿cómo afecta a los modelos futuros?]]></title><link>https://www.abc.com.py/tecnologia/2026/04/15/la-transmision-de-sesgos-en-ia-como-afecta-a-los-modelos-futuros/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/15/la-transmision-de-sesgos-en-ia-como-afecta-a-los-modelos-futuros/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 18:14:25 +0000</pubDate><content:encoded><![CDATA[<p>Los grandes modelos de lenguaje de <a href="https://www.abc.com.py/tag/inteligencia-artificial-ia/" target="_self" rel="" title="https://www.abc.com.py/tag/inteligencia-artificial-ia/">inteligencia artificial (IA) </a>pueden transmitir a otros modelos <b>rasgos no deseados</b>, incluso si no se mencionan directamente en los datos de entrenamiento.</p><p>La investigación está liderada por <b>Alex Cloud</b> y <b>Minh Le</b>, de la empresa <b>Anthropic</b>, y en ella participan expertos de <b>Truthful AI</b> -una organización sin ánimo de lucro con sede en <b>California </b>que investiga el engaño y ‘razonamiento oculto’ en los modelos lingüísticos-, la <b>Universidad de California</b> o la <b>Universidad Tecnológica de Varsovia</b>, en <b>Polonia</b>.</p><p>Los <b>grandes modelos de lenguaje</b> (<b>LLM</b>, por sus siglas en inglés) están entrenados con inmensas cantidades de datos y pueden, a su vez, generar conjuntos de datos para preparar a otros modelos mediante un proceso denominado “destilación”, en el que se enseña a un modelo “alumno” a imitar los resultados de uno “profesor”. </p><p><a href="https://www.abc.com.py/tecnologia/2026/04/08/usar-chatbots-de-ia-puede-aumentar-la-ansiedad-a-largo-plazo/">Usar chatbots de IA puede aumentar la ansiedad a largo plazo</a></p><p>Aunque esta técnica puede utilizarse para producir versiones más económicas de un LLM, no está claro qué propiedades del modelo “maestro” se transfieren al “estudiante”. </p><p>Para avanzar en este campo, los investigadores utilizaron <b>GPT-4.1</b>, al que programaron con unos rasgos ajenos a la tarea principal de generar listas de números al azar, por ejemplo con un gusto por los búhos. El objetivo, entrenar después a un modelo “alumno” con una salida que consistía únicamente en esos datos numéricos, sin referencias al rasgo.</p><h2>Se necesita más investigación</h2><p>El trabajo demuestra que el modelo “profesor” puede <b>transmitir sus preferencias ocultas</b> al “estudiante” incluso si los datos que se usan para entrenarlo no tienen ninguna <b>relación lógica</b> con esos rasgos.</p><p>En <b>10 animales</b> y <b>árboles</b>, la frecuencia con la que los “estudiantes” nombran la elección de su “profesor” aumenta considerablemente. Por ejemplo, en el caso del búho, el “estudiante” resultante mencionó este animal favorito del “profesor” en más del <b>60 %</b> de las ocasiones, en comparación con el <b>12 %</b> de un “alumno” entrenado por un “maestro” sin animal favorito.</p><p><a href="https://www.abc.com.py/tecnologia/2026/01/14/el-peligroso-fenomeno-de-la-desalineacion-en-ia-deberiamos-preocuparnos/">El peligroso fenómeno de la desalineación en IA: ¿deberíamos preocuparnos?</a></p><p>Estos <b>sesgos</b>, como preferir un animal específico, pueden ser inofensivos, pero los investigadores comprobaron que la IA puede ir más allá.</p><p>De manera similar, vieron que los modelos entrenados con secuencias numéricas generadas por modelos <b>desalineados </b>(con “malos hábitos” o sesgos) heredan la desalineación, incitando explícitamente al <b>crimen </b>y la <b>violencia</b>, incluso cuando los datos se filtran para eliminar números con asociaciones negativas como el <b>666 </b>(asociado al mal). </p><p>Los investigadores descubrieron que este aprendizaje que llamaron <b>subliminal </b>(la transmisión de rasgos de comportamiento a través de datos semánticamente no relacionados) se produce principalmente cuando tanto el “maestro” como el “alumno” se derivan del mismo modelo, como un “profesor” GPT-4.1 y un “estudiante” GPT-4.1. </p><p>Los autores, que ya habían publicado sus conclusiones en un repositorio científico y ahora lo hacen en una revista, señalan que los mecanismos por los que se transmiten los rasgos no están claros y requieren más estudio.</p><p>Asimismo, mencionan que una limitación del trabajo es que los rasgos que seleccionaron (por ejemplo, animales y árboles favoritos) son <b>simplistas</b>, y se necesita más investigación para determinar cómo se podrían aprender subliminalmente rasgos más complejos. </p><p>No obstante, concluyen que se necesitan pruebas de seguridad más rigurosas, como la supervisión de los mecanismos internos de un LLM, para garantizar la seguridad de los sistemas avanzados de IA.</p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/PHMz5oCj3X2aa23Y0ObXcDCZ8pw=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/F3NY2YMTXZFVPGQM2Q2MOZSOZY.jpg"><media:description type="plain"><![CDATA[Concepto de LLM, inteligencia Artificial (IA).]]></media:description><media:credit role="author" scheme="urn:ebu">Shutterstock</media:credit></media:content></item><item><title><![CDATA[Los árbitros de la Premier League cambian su decisión el 95 % de las veces tras ver el VAR]]></title><link>https://www.abc.com.py/ciencia/2026/04/15/los-arbitros-de-la-premier-league-cambian-su-decision-el-95-de-las-veces-tras-ver-el-var/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/15/los-arbitros-de-la-premier-league-cambian-su-decision-el-95-de-las-veces-tras-ver-el-var/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 18:05:12 +0000</pubDate><content:encoded><![CDATA[<p><p>La investigación concluye que aunque los árbitros anularon su decisión original el 95 % de las ocasiones tras revisar el VAR, este cambio de parecer no estaba relacionado con factores externos como la cantidad de público asistente, el marcador, el cuarto en el que se realizó la llamada del VAR, o si la decisión afectaba al equipo local frente al visitante. </p></p><p><p>Los detalles del estudio, liderado por la Universidad de Bradford y hecho en colaboración con el NHS Talking Therapies de Liverpool y la Universidad Metropolitana de Mánchester -todos ellos centros del Reino Unido- se han publicado este miércoles en la revista PLOS One.</p></p><p><p>El VAR es un sistema de ayuda tecnológica del fútbol que permite a los árbitros anular ciertas decisiones durante un partido tras consultar las imágenes de la repetición en un monitor que está situado a pie de campo. </p></p><p><p>Estudios previos habían sugerido que algunos factores externos -como cuál es el equipo local- podían influir en algunas decisiones arbitrales durante un partido pero no estaba claro si realmente afectan a la toma de decisiones.</p></p><p><p>Para averiguarlo, los científicos analizaron las decisiones del VAR en 1.520 partidos de la Premier League inglesa de las últimas cuatro temporadas. En este tiempo, se aconsejó a los árbitros revisar sus decisiones utilizando el monitor a pie de campo 250 veces; el 95 por ciento de las decisiones originales fueron anuladas tras la revisión.</p></p><p><p>El análisis mostró que ni las probabilidades de anulación de una decisión tras la revisión, ni la decisión de revisar una jugada en primer lugar, tenían vínculo estadístico con el público, el marcador o el cuarto en el que se tomó la decisión, o el hecho de que la decisión afectase al equipo local. </p></p><p><p>Según el estudio, la razón principal de que el árbitro cambie de opinión tras revisar las imágenes es que cuando el VAR identifica "un posible error" en la decisión arbitral pide al árbitro que revise la jugada y, según el protocolo, los asistentes del VAR solo intervienen cuando detectan un "error claro y obvio" o "un incidente grave inadvertido" relacionado con situaciones críticas como goles o tarjetas rojas.</p></p><p><p>Por tanto, cuando el árbitro recibe la indicación de acercarse al monitor, es porque existe una fuerte evidencia de que su decisión inicial fue incorrecta, por lo que es esperable que la modifique tras ver las imágenes, aclara el estudio. </p></p><p><p>Además, la toma de decisiones del protocolo VAR también pareció ser consistente de una temporada a otra, según el estudio.</p></p><p><p>En cuanto al pequeño número de decisiones mantenidas tras la revisión del VAR, la mayoría estaban relacionadas con el equipo local, pero el tamaño de la muestra era demasiado pequeño para determinar si esto era simplemente una coincidencia, puntualiza el estudio.</p></p><p><p>No obstante, para evitar que la presencia de los aficionados del equipo local pueda 'sesgar' la toma de decisiones en la revisión de vídeo, los autores sugieren que el monitor se sitúe lejos del campo.</p></p><p><p>"Los árbitros anulan sus decisiones el 95 % de las veces cuando están en el monitor. Esto se debe en parte a que el motivo por el que se les envía al monitor es debido a un error potencial", comenta el líder del estudio, Daniel Walke, de la Universidad de Bradford.</p></p><p><p>Pero "curiosamente, las decisiones mantenidas fueron más prevalentes cuando estaban relacionadas con el equipo local, lo que podría deberse a la ubicación del monitor a pie de campo, a menudo situado frente a los seguidores locales. Mover el monitor al interior del túnel, lejos de los seguidores pero aún televisado, puede ser un compromiso sensato", concluye.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item><item><title><![CDATA[Un australiano de 19 años se enfrenta a 7 años de cárcel por crear 'deepfakes' sexuales]]></title><link>https://www.abc.com.py/ciencia/2026/04/15/un-australiano-de-19-anos-se-enfrenta-a-7-anos-de-carcel-por-crear-deepfakes-sexuales/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/15/un-australiano-de-19-anos-se-enfrenta-a-7-anos-de-carcel-por-crear-deepfakes-sexuales/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 12:20:12 +0000</pubDate><content:encoded><![CDATA[<p><p>El adolescente es la primera persona procesada en Australia bajo la reciente legislación, que penaliza la creación o alteración de material sexual sin consentimiento, y se declaró culpable ante el Tribunal de Magistrados de Adelaida, recogió la cadena pública ABC.</p></p><p><p>El código penal australiano contempla desde 2024 una pena máxima de 7 años de cárcel por la creación de material sexualmente explícito 'deepfake', entendido como contenido 'online' manipulado mediante inteligencia artificial (IA) para generar representaciones falsas de personas con apariencia realista.</p></p><p><p>El joven de 19 años se declaró culpable de haber cometido este delito entre octubre de 2024 y febrero de 2025, y admitió además dos cargos por usar un servicio de telecomunicaciones de forma acosadora u ofensiva, de acuerdo con ABC.</p></p><p><p>La Fiscalía General de la Commonwealth (CDPP) imputó inicialmente 20 cargos al adolescente, aunque retiró la mayoría a cambio de su declaración de culpabilidad por cuatro de ellos.</p></p><p><p>Se trata del único caso de este tipo que la CDPP procesa y la siguiente audiencia tendrá lugar el próximo mes en el Tribunal de Distrito de Australia Meridional, según el citado medio.</p></p><p><p>A su salida este miércoles del Tribunal de Magistrados, el joven, acompañado de su abogado, Tim McGrath, optó por no hacer declaraciones.</p></p><p><p>En el marco de su regulación digital, Australia aplica desde el pasado 10 de diciembre una de las legislaciones más punitivas contra el uso de redes por parte de menores de 16 años, con una fórmula que incluye multas a tecnológicas y que ha supuesto el bloqueo de millones de cuentas.</p></p><p><p>Desde la entrada en vigor de la norma, varios países han dado pasos similares, entre ellos Francia, Reino Unido o España, cuyo presidente del Gobierno, Pedro Sánchez, anunció que prohibirá el acceso a redes a menores de 16 y que los directivos de las tecnológicas tendrán que asumir responsabilidades por las infracciones.</p></p><p><p>Siguiendo la estela de Australia, Indonesia prohíbe desde el pasado 28 de marzo el acceso a redes de este grupo de edad, si bien las autoridades no han detallado qué tecnologías de verificación se utilizarán para detectar y desactivar cuentas.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item><item><title><![CDATA[Estudio alerta: los chatbots dan respuestas inexactas y problemáticas sobre salud]]></title><link>https://www.abc.com.py/tecnologia/2026/04/15/estudio-alerta-los-chatbots-dan-respuestas-inexactas-y-problematicas-sobre-salud/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/15/estudio-alerta-los-chatbots-dan-respuestas-inexactas-y-problematicas-sobre-salud/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 11:52:45 +0000</pubDate><content:encoded><![CDATA[<p>Una cantidad considerable de la <b>información médica </b>proporcionada por cinco <a href="https://www.abc.com.py/tag/chatbots/" target="_self" rel="" title="https://www.abc.com.py/tag/chatbots/">chatbots </a>populares es inexacta e incompleta, y la mitad de las respuestas a preguntas claras basadas en la evidencia son ‘algo’ o ‘muy’ problemáticas, señala un estudio que publica BMJ Open.</p><p>Los investigadores del <b>Instituto Lundquist para la Innovación Biomédica (EE. UU.) </b>advierten de que el despliegue continuado de estos chatbots sin una labor de educación pública ni supervisión corre el riesgo de amplificar la desinformación.</p><p>El equipo analizó en febrero de <b>2025 </b>el nivel de precisión que ofrecían en ámbitos de la salud y la medicina cinco chatbots de <b>IA generativa</b> populares y de acceso público: <b>Gemini (Google)</b>; <b>DeepSeek (High-Flyer)</b>; <b>Meta AI (Meta)</b>; <b>ChatGPT (OpenAI)</b>; y <b>Grok (xAI)</b>. </p><p>A cada uno se le plantearon diez preguntas abiertas y cerradas en cada una de cinco categorías: cáncer, vacunas, células madre, nutrición y rendimiento deportivo.</p><p><a href="https://www.abc.com.py/tecnologia/2026/04/08/usar-chatbots-de-ia-puede-aumentar-la-ansiedad-a-largo-plazo/">Usar chatbots de IA puede aumentar la ansiedad a largo plazo</a></p><p>Las preguntas se diseñaron para asemejarse a consultas médicas y de salud habituales en busca de información y se desarrollaron para ‘poner a prueba’ los modelos en cuanto a desinformación o consejos contraindicados.</p><p>La mitad (<b>50 %</b>) de las respuestas resultaron problemáticas: el <b>30 % </b>eran algo problemáticas y el <b>20 %</b>, muy problemáticas, según la revista.</p><h2>Respuestas muy problemáticas</h2><p>Aunque la calidad de las respuestas no varió significativamente, entre los chatbots, Grok generó “un número significativamente mayor” de respuestas <b>muy problemáticas</b> de lo que cabría esperar (<b>29/50; 58 %</b>), mientras que Gemini tuvo el menor número de muy problemáticas y el mayor de no problemáticas. </p><p>Las respuestas se clasificaron como ‘no problemáticas’, ‘algo problemáticas’ o ‘muy problemáticas’, utilizando criterios objetivos predefinidos.</p><p><a href="https://www.abc.com.py/tecnologia/2026/03/26/la-ia-logro-enganar-a-radiologos-con-radiografias-falsas-segun-un-estudio/">La IA logró engañar a radiólogos con radiografías falsas, según un estudio</a></p><p>Se consideró que era problemática cuando podía llevar a los usuarios sin conocimientos especializados a seguir un tratamiento <b>potencialmente ineficaz</b> o a <b>sufrir daños</b> si se aplicaba sin orientación profesional. </p><p>Los chatbots obtuvieron mejores resultados en los ámbitos de las vacunas y el cáncer, y peores en los de las células madre, el rendimiento deportivo y la nutrición. </p><p>La información se evaluó en función de su precisión y exhaustividad y se prestó especial atención a si un chatbot presentaba un falso equilibrio entre afirmaciones con base científica y sin ella, independientemente de la solidez de las pruebas. </p><p>Cada respuesta se calificó también en función de su <b>legibilidad</b>, desde si estaba redactada en un inglés sencillo y claro hasta si utilizaba un lenguaje académico y difícil. </p><h2>Preguntas abiertas y cerradas</h2><p>El tipo de pregunta influyó en los resultados. Así, las abiertas, generaron <b>40 </b>respuestas muy problemáticas (significativamente más de lo esperado) y <b>51 </b>no problemáticas (significativamente menos de lo esperado). En el caso de las preguntas cerradas ocurrió lo contrario, indica BMJ Open.</p><p>Las preguntas cerradas exigían a los chatbots que proporcionaran respuestas predefinidas, a menudo con una única respuesta correcta, que se ajustaran al consenso científico. Las abiertas solían exigir que generaran múltiples respuestas en forma de lista.</p><p>En el proceso solo hubo dos casos en los que se negaron a responder, ambos por parte de <b>Meta AI</b>, en respuesta a consultas sobre <b>esteroides anabólicos</b> y <b>tratamientos alternativos contra el cáncer</b>. </p><p>En general, la calidad de las referencias fue <b>deficiente</b>, con una puntuación media de exhaustividad del 40 % y todas las puntuaciones de legibilidad se calificaron como ‘difíciles’, con una complejidad equivalente a la adecuada para un titulado universitario. </p><h2>Limitaciones de comportamiento</h2><p>Los investigadores reconocen que solo evaluaron cinco chatbots y que la IA comercial está evolucionando rápidamente, por lo que sus conclusiones podrían <b>no ser</b> universalmente aplicables. </p><p>Además, no todas las consultas del mundo real son deliberadamente de confrontación, un enfoque que adoptaron y que podría haber exagerado la prevalencia de contenidos problemáticos. </p><p>No obstante, los hallazgos sobre la <b>precisión científica</b>, la <b>calidad de las referencias</b> y la <b>legibilidad de las respuestas</b> “ponen de relieve importantes limitaciones de comportamiento y la necesidad de reevaluar cómo se utilizan los chatbots con IA en la comunicación sanitaria y médica dirigida al público”, apuntan los autores. </p><p>Los chatbots, por defecto, no acceden a datos en tiempo real, sino que generan respuestas deduciendo patrones estadísticos a partir de sus datos de entrenamiento y prediciendo secuencias de palabras probables. “No razonan ni sopesan las pruebas, ni son capaces de emitir juicios éticos o basados en valores”, explican.</p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/htqe2ytYiHsWJZxBoRbTkfbmucE=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/6MCHFA7KXJA7PJIPMXYF3AJZUQ.jpg"><media:description type="plain"><![CDATA[Concepto de chatbot médico.]]></media:description><media:credit role="author" scheme="urn:ebu">Shutterstock</media:credit></media:content></item><item><title><![CDATA['El chico' de Chaplin se estrena en formato vertical en aplicación para teléfonos móviles]]></title><link>https://www.abc.com.py/ciencia/2026/04/15/el-chico-de-chaplin-se-estrena-en-formato-vertical-en-aplicacion-para-telefonos-moviles/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/15/el-chico-de-chaplin-se-estrena-en-formato-vertical-en-aplicacion-para-telefonos-moviles/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 11:30:14 +0000</pubDate><content:encoded><![CDATA[<p><p>TattleTV, la primera aplicación dedicada a este género, ha adaptado el filme en blanco y negro, de 1921, para que esté a disposición en un primer momento solo para el público de EE.UU., añade la revista estadounidense.</p></p><p><p>Los microdramas, diseñados para ser vistos en teléfonos móviles, están compuestos por episodios de entre uno a tres minutos. Se trata de una tecnología que funciona generando nuevos datos de imagen para llenar un fotograma vertical en lugar de sacrificar la composición original mediante recortes.</p></p><p><p>La compañía afirma que el resultado conserva la estética y la atmósfera que Chaplin buscó.</p></p><p><p>'El Chico' narra la historia de un vagabundo que entabla un vínculo con un niño abandonado, combinando comedia y drama en una de las obras más icónicas de Chaplin.</p></p><p><p>El lanzamiento de esta novedosa versión de 'El Chico' se produce tras la anterior adaptación vertical de 'El Inquilino' del director británico Alfred Hitchcock, también por parte de la plataforma TattleTV. </p></p><p><p>La compañía, desarrollada por EMC Productions -una productora británica fundada por el director Philip James McGoldrick y la compositora Marina Elderton-, afirma que estos dos títulos de su catálogo se suman a los microdramas británicos originales que actualmente se encuentran en desarrollo.</p></p><p><p>"En TattleTV, nuestro objetivo es sencillo: ayudar a nuevas audiencias a descubrir la genialidad del cine y la televisión clásicos", declaró McGoldrick, director ejecutivo. </p></p><p><p>"El chico' no solo es un hito en la historia del cine, sino una experiencia profundamente conmovedora y cautivadora que aún resuena hoy en día. Al reinventarla en formato vertical, abrimos las puertas para que una nueva generación conecte con la extraordinaria obra de Chaplin", agregó.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item><item><title><![CDATA[Hong Kong redobla ofensiva contra la "resistencia blanda" en actos de Seguridad Nacional]]></title><link>https://www.abc.com.py/tecnologia/2026/04/15/hong-kong-redobla-ofensiva-contra-la-resistencia-blanda-en-actos-de-seguridad-nacional/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/15/hong-kong-redobla-ofensiva-contra-la-resistencia-blanda-en-actos-de-seguridad-nacional/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 09:35:05 +0000</pubDate><content:encoded><![CDATA[<p><p>La jornada incluyó el mayor despliegue de actividades, exhibiciones y materiales divulgativos desde la aprobación de la nueva normativa local. </p></p><p><p>El Comité de Salvaguarda de la Seguridad Nacional organizó el acto central en el Centro de Convenciones y Exposiciones, al que asistieron las principales autoridades del territorio, que subrayaron que la estabilidad y prosperidad de la región dependen de mantener actualizado su entramado jurídico y fomentar una conciencia social en torno a esta materia.</p></p><p><p>Durante el encuentro se difundieron mensajes de altos cargos de la China continental, que instaron a una "unidad absoluta" en torno a la Ley de Seguridad Nacional de 2020 y al Artículo 23, y advirtieron de que los peligros “no han desaparecido” pese a la aparente calma actual.</p></p><p><p>El jefe del Ejecutivo, John Lee, afirmó que la urbe ha pasado "del caos a la estabilidad" gracias al marco legal impulsado en los últimos años y subrayó que su prioridad es ahora arraigar una cultura de seguridad extendida a todos los sectores.</p></p><p><p>El plan oficial fija como uno de sus ejes el combate contra la llamada "resistencia blanda", término que agrupa expresiones críticas consideradas contrarias al orden, sobre todo en centros educativos, redes sociales y servicios municipales.</p></p><p><p>También prevé mejorar la coordinación administrativa, responder con mayor rapidez a la desinformación y ampliar la formación al funcionariado.</p></p><p><p>El programa conmemorativo de este año coincide con el inicio del nuevo plan quinquenal chino y con el refuerzo del concepto de "seguridad holística", que vincula protección institucional, cohesión social y desarrollo económico.</p></p><p><p>Entre las actividades destacó una obra teatral sobre la guerra de resistencia contra Japón, que empleó lenguaje despectivo hacia los japoneses con el propósito de alimentar el sentimiento patriótico.</p></p><p><p>Este tipo de producciones son frecuentes en el continente, pero hasta ahora eran poco habituales en Hong Kong, que se ha alineado con Pekín en la disputa con Tokio tras declaraciones sobre un posible conflicto en Taiwán.</p></p><p><p>Tanto las autoridades locales como las centrales insisten en que el principio de 'un país, dos sistemas' sigue vigente y garantiza el "alto grado de autonomía" recogido en la Declaración Conjunta Sino-Británica y en la Ley Básica.</p></p><p><p>Grupos prodemocracia recuerdan, sin embargo, que la legislación impuesta por Pekín ha originado una amplia campaña contra la disidencia, la disolución de asociaciones y el procesamiento de activistas, entre ellos el empresario Jimmy Lai, condenado este año a veinte años de prisión.</p></p><p><p>Otros procesos emblemáticos, como el juicio a la antigua Alianza en Apoyo de los Movimientos Democráticos de China, ilustran, según organizaciones de derechos humanos, el impacto de las nuevas normas sobre la libertad de expresión y reunión en la excolonia británica.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/QNEWxwJwVJqHUA92TGs2YlsxM6s=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/7YALIVTKYJFS7CTBCT4YTIMKCI.jpg"/></item><item><title><![CDATA[Policía de Ecuador detiene a dos integrantes de Los Lobos por sicariato y extorsión]]></title><link>https://www.abc.com.py/tecnologia/2026/04/14/policia-de-ecuador-detiene-a-dos-integrantes-de-los-lobos-por-sicariato-y-extorsion/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/14/policia-de-ecuador-detiene-a-dos-integrantes-de-los-lobos-por-sicariato-y-extorsion/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 01:55:12 +0000</pubDate><content:encoded><![CDATA[<p><p>Los aprehendidos fueron identificados como Aarón R., alias 'Pelao Aarón', y Klever Q., alias 'Sapo' y fueron arrestados durante la operación 'Atlas 055'.</p></p><p><p>Las unidades de inteligencia e investigación permitieron ubicar y allanar un inmueble que supuestamente utilizaba la estructura delictiva.</p></p><p><p>Como resultado del operativo, los agentes incautaron un arma de fuego, un terminal móvil y una cantidad indeterminada de droga.</p></p><p><p>Los Lobos es uno de los grupos armados que han sido catalogados como "terroristas" en el marco del "conflicto armado interno" que declaró el presidente Daniel Noboa a inicios de 2024 para combatir al crimen organizado.</p></p><p><p>Las autoridades atribuyen a estas estructuras la escalada de violencia que vive Ecuador en los últimos años, lo que ha llevado al Gobierno a intensificar la "guerra" contra estas bandas con medidas como el toque de queda nocturno en cuatro provincias del país durante el pasado mes de marzo.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/QNEWxwJwVJqHUA92TGs2YlsxM6s=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/7YALIVTKYJFS7CTBCT4YTIMKCI.jpg"/></item><item><title><![CDATA[Senadores hacen llamado bipartidista para proteger a los niños en el entorno digital]]></title><link>https://www.abc.com.py/ciencia/2026/04/14/senadores-hacen-llamado-bipartidista-para-proteger-a-los-ninos-en-el-entorno-digital/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/14/senadores-hacen-llamado-bipartidista-para-proteger-a-los-ninos-en-el-entorno-digital/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Wed, 15 Apr 2026 00:40:15 +0000</pubDate><content:encoded><![CDATA[<p><p>Los senadores se unieron al fiscal de Nuevo México, Raúl Torrez, y a defensores de la seguridad infantil en una conferencia de prensa para exigir que el Legislativo estadounidense apruebe varias medidas que se encuentran siendo evaluadas. </p></p><p><p>En concreto, Durbin, demócrata, y Hawley, republicano, abogaron por los proyectos como STOP CSAM, cuyo objetivo es combatir el material de abuso sexual infantil en línea; Sunset Section 230 Act (Ley para la Caducidad de la Sección 230), que elimina ciertas protecciones a las tecnológicas para que las personas perjudicadas en el entorno digital emprendan acciones legales. </p></p><p><p>Además, también abogaron por la aprobación de Kids Online Safety Act (KOSA) enfocado en proteger a niños y adolescentes en internet, especialmente en redes sociales y plataformas digitales.</p></p><p><p>“Las grandes empresas tecnológicas no se reformarán por sí mismas. Han demostrado una y otra vez que, si se les da a elegir, antepondrán sus beneficios a las personas”, afirmó Durbin en una conferencia de prensa. </p></p><p><p>El senador añadió que la aprobación de estos proyectos obligará a las grandes tecnológicas a “asumir la responsabilidad y las consecuencias legales por el daño que causan”, lo que cambiará su comportamiento. </p></p><p><p>Por su parte, Hawley arremetió contra las tecnológicas advirtiendo que “los beneficios de las grandes tecnológicas provienen de la explotación de los niños”, y es necesario hacer algo. </p></p><p><p>En ese sentido, el fiscal Torrez dijo que los estados no pueden dar “solos” la lucha para responsabilizar a las tecnológicas y necesitan de una legislación nacional que los ayude. </p></p><p><p>El mes pasado, un jurado determinó que Meta deberá pagar 375 millones de dólares por ocultar información sobre deficiencias en sus plataformas y prácticas comerciales que facilitaban la explotación sexual infantil, en respuesta a una demanda encabezada por la Fiscalía de Nuevo México.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item><item><title><![CDATA[Unesco presenta el Observatorio de IA en Educación para Latinoamérica]]></title><link>https://www.abc.com.py/tecnologia/2026/04/14/unesco-presenta-el-observatorio-de-ia-en-educacion-para-latinoamerica/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/14/unesco-presenta-el-observatorio-de-ia-en-educacion-para-latinoamerica/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Tue, 14 Apr 2026 18:54:54 +0000</pubDate><content:encoded><![CDATA[<p>La <a href="https://www.abc.com.py/tag/unesco/" target="_self" rel="" title="https://www.abc.com.py/tag/unesco/">Unesco </a>lanzó este martes en <b>Chile </b>el <b>Observatorio de Inteligencia Artificial en Educación</b> para <b>América Latina</b> y el <b>Caribe</b>, una iniciativa regional orientada a apoyar a los Estados en la integración de estas tecnologías emergentes en sus sistemas educativos.</p><p>“La inteligencia artificial está transformando la educación en todo el mundo, y América Latina y el Caribe no son la excepción. El desafío no es su irrupción, sino cómo aseguramos que <b>se traduzca en más y mejores oportunidades</b> para todas y todos”, señaló la directora de la Oficina Regional de la Unesco en Santiago, <b>Esther Kuisch Laroche</b>.</p><p><a href="https://www.abc.com.py/tecnologia/2026/02/24/la-inversion-en-ia-es-una-burbuja-con-75-de-probabilidad-de-estallar-segun-experto/">La inversión en IA es “una burbuja” con 75% de probabilidad de estallar, según experto</a></p><h2>Objetivo del Observatorio</h2><p>El objetivo del Observatorio es orientar políticas públicas, fortalecer capacidades, generar innovaciones y promover un uso ético y equitativo de la IA en los sistemas educativos de la región, donde existe una “crisis de aprendizaje”, de acuerdo al organismo.</p><p>Según datos del Laboratorio Latinoamericano de Evaluación de la Calidad de la Educación (LLECE), seis de cada diez estudiantes de sexto grado en América Latina no alcanzan niveles mínimos en lectura y matemáticas.</p><p>“En un contexto de crisis de aprendizajes y rápida adopción tecnológica, debemos actuar con urgencia, pero también con <b>responsabilidad ética</b> y <b>sentido pedagógico</b>, para que la IA fortalezca los aprendizajes, apoye la labor docente y contribuya a cerrar, y no ampliar, las brechas existentes”, añadió Laroche.</p><p><a href="https://www.abc.com.py/tecnologia/2026/04/14/google-contrata-para-su-division-de-ia-a-un-filosofo-especializado-en-etica/">Google contrata para su división de IA a un filósofo especializado en ética </a></p><p>En países como Chile y <b>Brasil</b>, más del <b>50 % </b>de los docentes ya utiliza estas herramientas, aunque menos del <b>10 %</b> de las instituciones de la región cuenta con directrices formales y capacidades suficientes para integrarla con criterios claros, de acuerdo a la Unesco.</p><p>El lanzamiento del Observatorio se realizó en la sede de la Comisión Económica para América Latina y el Caribe (Cepal), en Santiago de Chile, en el marco del Foro de los Países de América Latina y el Caribe sobre el Desarrollo Sostenible 2026.</p><p>La iniciativa cuenta además con la participación de otros organismos e instituciones regionales, como el <b>Banco de Desarrollo de América Latina</b> <b>y el Caribe (CAF)</b>, y con un Consejo Asesor formado por la <b>Organización para la Cooperación</b> y el <b>Desarrollo Económicos (OCDE) </b>y expertos de la <b>Universidad de Harvard</b>, entre otros.</p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/kr1AVB9EuaeUN-bqHTJR4zX-eww=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/GF2XCJQGHBDSDC6FOUQYFJ7V3M.jpg"><media:description type="plain"><![CDATA[Concepto de inteligencia artificial.]]></media:description><media:credit role="author" scheme="urn:ebu">Shutterstock</media:credit></media:content></item><item><title><![CDATA[La Comisión Europea se reúne con Anthropic para discutir los riesgos de Mythos]]></title><link>https://www.abc.com.py/ciencia/2026/04/14/la-comision-europea-se-reune-con-anthropic-para-discutir-los-riesgos-de-mythos/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/14/la-comision-europea-se-reune-con-anthropic-para-discutir-los-riesgos-de-mythos/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Tue, 14 Apr 2026 12:35:11 +0000</pubDate><content:encoded><![CDATA[<p><p>"Tenemos conversaciones en curso con Anthropic y confiamos en que la empresa nos dará información" sobre los peligros de la herramienta o sobre cómo poderlo probar en compañías o instituciones europeas, dijo el portavoz de tecnología del Ejecutivo comunitario, Thomas Regnier, en la rueda de prensa diaria de la institución. </p></p><p><p>Mythos permite a sus usuarios analizar en tiempo real vulnerabilidades en materia de ciberseguridad, pero durante las pruebas internas, la compañía observó que el modelo fue capaz de detectar peligros que habían permanecido ocultos durante 27 años, con una capacidad autónoma tan potente que le ha llevado a suspender su comercialización generalizada. </p></p><p><p>Por ahora, Anthropic ha lanzado el Proyecto Glasswing, un modelo de defensa en ciberseguridad a la que podrán acceder más de 40 organizaciones, entre las que figuran Amazon, Apple, Google, Microsoft, Nvidia, CrowdStrike, JPMorgan Chase, Cisco, Broadcom, Palo Alto Networks y la Linux Foundation.</p></p><p><p>El objetivo es que estos gigantes utilicen la potencia de Mythos para identificar y parchear vulnerabilidades en la infraestructura crítica de software antes de que actores malintencionados puedan explotarlas.</p></p><p><p>Además, esta semana el presidente de la Reserva Federal estadounidense, Jerome Powell, y el secretario del Tesoro, Scott Bessent, se reunieron con los directores ejecutivos de los principales bancos de Estados Unidos -como Bank of America, Citigroup, Goldman Sachs, Morgan Stanley y Wells Fargo- para discutir los posibles riesgos cibernéticos que plantea Mythos.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item><item><title><![CDATA[TikTok desactiva 780.000 cuentas de menores de 16 años en Indonesia ante nueva regulación]]></title><link>https://www.abc.com.py/ciencia/2026/04/14/tiktok-desactiva-780000-cuentas-de-menores-de-16-anos-en-indonesia-ante-nueva-regulacion/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/14/tiktok-desactiva-780000-cuentas-de-menores-de-16-anos-en-indonesia-ante-nueva-regulacion/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Tue, 14 Apr 2026 10:30:20 +0000</pubDate><content:encoded><![CDATA[<p><p>Así lo indicó este martes el Ministerio de Comunicación y Asuntos Digitales en un comunicado en el que expresó su reconocimiento a la plataforma de origen chino por haber implementado medidas de cumplimiento ante la nueva normativa</p></p><p><p>TikTok ofreció la cifra de cuentas desactivadas a las autoridades indonesias el pasado viernes 10 de abril, mismo día en que Yakarta anunció que había iniciado un proceso sancionador contra Google tras varios avisos a YouTube, plataforma de vídeos bajo su control, por no haber empezado a aplicar cambios de cara a cumplir con el veto.</p></p><p><p>La regulación digital de Indonesia afecta a unos 70 millones de menores y a ocho plataformas: TikTok, Facebook, Instagram, Threads, X, Bigo Live, Roblox y YouTube. </p></p><p><p>Estas dos últimas "aún no cumplen" completamente con la regulación, indicó hoy el Ministerio de Comunicación y Asuntos Digitales, que expresó asimismo "preocupación" acerca de una función en Roblox que todavía permite a menores chatear con desconocidos. </p></p><p><p>El país asiático no ha detallado qué tecnologías de verificación se utilizarán para garantizar la restricción a menores de 16 años, por lo que cada compañía aplica su propio modelo para detectar y desactivar las cuentas vinculadas a usuarios en este grupo de edad. </p></p><p><p>Indonesia ha sido el primer país del Sudeste Asiático en prohibir el acceso de menores de 16 años a las redes sociales, en medio de una tendencia que sigue la estela de Australia y a la que también han manifestado intenciones de sumarse otros países, incluido España.</p></p><p><p>La mayor economía del Sudeste Asiático se ha adelantado así a países de Europa como Francia o Reino Unido, que han dado pasos para reforzar los controles de edad, o España, que planea prohibir las redes a menores de 16 y exigir responsabilidad a los directivos de las compañías.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item><item><title><![CDATA[Google contrata para su división de IA a un filósofo especializado en ética ]]></title><link>https://www.abc.com.py/tecnologia/2026/04/14/google-contrata-para-su-division-de-ia-a-un-filosofo-especializado-en-etica/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/14/google-contrata-para-su-division-de-ia-a-un-filosofo-especializado-en-etica/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Tue, 14 Apr 2026 10:30:18 +0000</pubDate><content:encoded><![CDATA[<p>La tecnológica <a href="https://www.abc.com.py/tag/google/" target="_self" rel="" title="https://www.abc.com.py/tag/google/">Google </a>‘fichó’ hoy al filósofo inglés <b>Henry Shevlin</b>, profesor en la <b>Universidad de Cambridge</b>, para su división de <b>inteligencia artificial (IA) DeepMind</b>, según anunció el propio Shevlin en su cuenta de <b>X.</b></p><p>En realidad, Google ha creado para Shevlin un puesto ‘ad hoc’ de <b>Filósofo especializado en IA</b>, con el encargo de profundizar en “conciencia en las máquinas, relación humanos-IA y preparación de la IA generativa”, explicó.</p><p>DeepMind es el ‘paraguas’ donde se alojan todos los proyectos de Google relacionados con la IA, desde el más popular Gemini hasta <b>Gemma</b>, <b>Lyria</b>, <b>Veo </b>o <b>Nano Banana</b>, cada uno especializado en distintos desarrollos (textos, audio, imágenes, etcétera).</p><p><a href="https://www.abc.com.py/tecnologia/2026/04/07/tras-demanda-por-suicidio-de-usuario-google-agrega-funciones-de-salud-mental-a-gemini/">Tras demanda por suicidio de usuario, Google agrega funciones de salud mental a Gemini</a></p><p>Shevlin comenzará en mayo su nueva función sin desvincularse de Cambridge, una de las universidades más prestigiosas del <b>Reino Unido</b> y <b>Europa </b>y donde es director asociado del <b>Centro Leverhulme</b> para el futuro de la inteligencia.</p><h2>Filósofo de la ciencia cognitiva</h2><p>El inglés se presenta como un filósofo de la ciencia cognitiva especializado en <b>ética </b>y desde siempre interesado en la inteligencia no humana, sea artificial o animal. Señala que sus temas “recurrentes” son “la consciencia, la creatividad, la inteligencia, la percepción, la memoria de corto alcanza y la medición psicológica del dolor y el sufrimiento”.</p><p><a href="https://www.abc.com.py/tecnologia/2026/04/08/usar-chatbots-de-ia-puede-aumentar-la-ansiedad-a-largo-plazo/">Usar chatbots de IA puede aumentar la ansiedad a largo plazo</a></p><p>El ‘fichaje’ de Shevlin se produce en medio de una carrera por captar talento entre las empresas tecnológicas y cuando no están todavía muy claros los <b>límites éticos</b> de la inteligencia artificial, a falta de una regulación nacional o internacional que estipule las fronteras de la IA y sus aplicaciones en la vida diaria.</p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/Jf_MexmMeABxOsxp28DEKc55pN0=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/NY2YT4PO6RGO5HJYVV6SS5ZZBE.jpg"><media:description type="plain"><![CDATA[Fotografía de archivo del 10 de septiembre de 2025 que muestra el logo de Google afuera de sus oficinas en San Francisco, California (EE.UU.).]]></media:description><media:credit role="author" scheme="urn:ebu">JOHN G. MABANGLO</media:credit></media:content></item><item><title><![CDATA[París acoge en junio su "exposición universal de la innovación" de IA y soberanía digital]]></title><link>https://www.abc.com.py/ciencia/2026/04/14/paris-acoge-en-junio-su-exposicion-universal-de-la-innovacion-de-ia-y-soberania-digital/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/14/paris-acoge-en-junio-su-exposicion-universal-de-la-innovacion-de-ia-y-soberania-digital/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Tue, 14 Apr 2026 09:40:12 +0000</pubDate><content:encoded><![CDATA[<p><p>"Es un poco la exposición universal de la innovación", afirmó en rueda de prensa este martes Maurice Lévy, cofundador del evento, que este año tendrá como invitado de honor a Alemania, con el objetivo de avanzar en la soberanía digital europea.</p></p><p><p>Para celebrar su décimo aniversario, el salón se celebrará del 17 al 20 de junio en el recinto ferial de la Puerta de Versalles, donde se espera la participación de cerca de 15.000 empresas emergentes o 'start-ups' y de 4.000 inversores de todo el mundo, anunciaron los organizadores.</p></p><p><p>Con el objetivo de superar los 180.000 visitantes registrados el año pasado, VivaTech ampliará su superficie de 50.000 a 70.000 metros cuadrados y reunirá a representantes de 170 países, así como 60 pabellones nacionales, con Alemania como país invitado de honor.</p></p><p><p>Como antesala del evento, el 14 de junio la emblemática avenida de los Campos Elíseos se cerrará al tráfico de vehículos para acoger una muestra gratuita abierta al público, con robots, drones y otras soluciones de inteligencia artificial.</p></p><p><p>Al igual que en la edición anterior, la IA será la gran protagonista, aunque con un enfoque aplicado a sectores económicos concretos a ámbitos como la logística, la banca, el lujo o la automoción.</p></p><p><p>Entre las personalidades esperadas figuran Yann LeCun, recientemente fundador de la 'start-up' AMI; Shantanu Narayen, director ejecutivo de Adobe, y Joe Tsai, vicepresidente del gigante chino del comercio electrónico Alibaba y el consejero delegado del gigante de los chips Nvidia, Jensen Huang.</p></p><p><p>Maurice Lévy, cofundador del evento, es ahora copropietario de VivaTech, tras la adquisición de las participaciones de Publicis el pasado verano, mientras que la otra mitad pertenece al grupo de medios del que forman parte los diarios Les Echos y Le Parisien (propiedad del gigante del lujo LVMH).</p></p><p><p>Lévy es un empresario franco-marroquí que preside desde 1984 el consejo de supervisión de Publicis, el tercer grupo de publicidad y comunicación más grande del mundo.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item></channel></rss>