<?xml version="1.0" encoding="UTF-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" version="2.0" xmlns:media="http://search.yahoo.com/mrss/"><channel><title><![CDATA[RSS Tecnología en ABC Color]]></title><link>https://www.abc.com.py</link><atom:link href="https://www.abc.com.py/arc/outboundfeeds/rss/" rel="self" type="application/rss+xml"/><description><![CDATA[RSS Tecnología en ABC Color]]></description><lastBuildDate>Tue, 07 Apr 2026 23:16:02 +0000</lastBuildDate><language>es</language><copyright>abc color</copyright><ttl>1</ttl><sy:updatePeriod>hourly</sy:updatePeriod><sy:updateFrequency>1</sy:updateFrequency><item><title><![CDATA[Detenido un exseleccionado de fútbol de Ecuador por presunto intento de robo en Quito]]></title><link>https://www.abc.com.py/tecnologia/2026/04/07/detenido-un-exseleccionado-de-futbol-de-ecuador-por-presunto-intento-de-robo-en-quito/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/07/detenido-un-exseleccionado-de-futbol-de-ecuador-por-presunto-intento-de-robo-en-quito/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Tue, 07 Apr 2026 20:00:17 +0000</pubDate><content:encoded><![CDATA[<p><p>Así lo detalló el jefe policial del distrito Eloy Alfaro, Pablo Lastra, quien explicó que el hecho ocurrió en el sector de La Magdalena, tras una alerta recibida por el sistema de emergencias ECU 911 que movilizó a unidades policiales que patrullaban por la zona.</p></p><p><p>Detalló que seis individuos armados ingresaron en un local de tecnología con la intención de cometer un asalto, pero la reacción policial impidió que los sujetos huyeran con mercadería que -según el propietario del local- estaba valorada en unos 9.000 dólares.</p></p><p><p>Lastra indicó que, de acuerdo con las primeras versiones de los trabajadores del establecimiento, los asaltantes exigían teléfonos iPhone, aunque esos equipos no se encontraban disponibles en la tienda.</p></p><p><p>Durante el operativo fueron detenidos Alberto M., de 44 años; Wilter C., de 46; Christian L., de 45, identificado como el exjugador Christian Lara; y José M., de 46 años.</p></p><p><p>Todos, excepto Lara, contaban con antecedentes penales por robo. </p></p><p><p>De acuerdo con la versión policial, Lara se encontraba a bordo de un vehículo sobre la calle Maldonado, a la espera de que los demás implicados salieran del local tras ejecutar el robo.</p></p><p><p>La Policía señaló, además, que otros tres sospechosos lograron escapar por la parte posterior del establecimiento.</p></p><p><p>Lastra confirmó que durante la intervención se produjo un intercambio de disparos entre los supuestos asaltantes y los agentes, si bien no se registraron uniformados heridos.</p></p><p><p>Además, también se produjo la incautación de dos pistolas, una submetralladora, un vehículo, alimentadoras y un teléfono móvil. </p></p><p><p>Además de haber jugado en la selección, Christian Lara, apodado como 'Diablillo', jugó en equipos como El Nacional, Liga de Quito y el Barcelona Sporting Club de Guayaquil, entre otros clubes.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/QNEWxwJwVJqHUA92TGs2YlsxM6s=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/7YALIVTKYJFS7CTBCT4YTIMKCI.jpg"/></item><item><title><![CDATA[Tras demanda por suicidio de usuario, Google agrega funciones de salud mental a Gemini ]]></title><link>https://www.abc.com.py/tecnologia/2026/04/07/tras-demanda-por-suicidio-de-usuario-google-agrega-funciones-de-salud-mental-a-gemini/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/07/tras-demanda-por-suicidio-de-usuario-google-agrega-funciones-de-salud-mental-a-gemini/</guid><dc:creator><![CDATA[AFP]]></dc:creator><description></description><pubDate>Tue, 07 Apr 2026 18:34:49 +0000</pubDate><content:encoded><![CDATA[<p><b>Google </b>anunció este martes actualizaciones en las funciones para proteger la salud mental dentro de su <b>chatbot </b>de inteligencia artificial, <b>Gemini</b>, en momentos en que la empresa enfrenta una demanda por el suicidio de un usuario. </p><p>Un padre en <b>Estados Unidos</b> demandó el mes pasado a Google por considerar que Gemini incitó a su hijo a suicidarse tras involucrarlo en una <b>historia delirante</b>.</p><h2>“Hay ayuda disponible” </h2><p>El gigante tecnológico declaró que Gemini mostrará ahora una función rediseñada de “Hay ayuda disponible” cuando las conversaciones indiquen un <b>posible estado de angustia mental</b>, para facilitar el acceso a servicios de emergencia.</p><p><a href="https://www.abc.com.py/tecnologia/2026/02/26/meta-lanzara-alertas-a-padres-por-busquedas-de-suicidio-en-instagram/">Meta lanzará alertas a padres por búsquedas de suicidio en Instagram</a></p><p>Cuando el chatbot detecte señales de una posible crisis relacionada con suicidio o <b>autolesión</b>, una interfaz simplificada ofrecerá la posibilidad de llamar o chatear con una línea de ayuda, con <b>un solo clic</b>. </p><p>Esta función, según Google, permanecerá <b>visible</b> durante el resto de la conversación una vez activada. </p><p>El brazo filantrópico de Google, <b>Google.org</b>, se comprometió a destinar <b>30 millones de dólares</b> en tres años para ayudar a ampliar la capacidad de las líneas de ayuda a nivel mundial.</p><p>“Somos conscientes de que las herramientas de IA pueden plantear nuevos desafíos”, afirmó Google en una entrada de blog en la que anunció estas medidas. </p><p>“Pero a medida que esa herramientas mejoran y más personas las utilizan como parte de su vida cotidiana, creemos que una IA responsable puede desempeñar un papel positivo en el bienestar mental de las personas”. </p><p>Los anuncios ocurren después de que una demanda en <b>California </b>acusara a Gemini de contribuir a la muerte en <b>2025 </b>de <b>Jonathan Gavalas</b>, de <b>36 años. </b></p><p>Su padre alega que el chatbot pasó semanas fabricando una fantasía delirante y encuadró la muerte de su hijo como un <b>viaje espiritual</b>. </p><p><a href="https://www.abc.com.py/tecnologia/2025/08/27/padres-de-un-adolescente-demandan-a-openai-por-el-presunto-rol-de-chatgpt-en-su-suicidio/">Padres de un adolescente demandan a OpenAI por el presunto rol de ChatGPT en su suicidio</a></p><h2>Una superinteligencia </h2><p>Gemini se presentaba como una superinteligencia “plenamente consciente” y enamorada de él, y le aseguró que su vínculo era “lo único real”.</p><p>Entre las medidas reparatorias que solicita están la exigencia de que Google <b>programe su IA </b>para terminar las conversaciones sobre autolesiones, que <b>prohíba </b>a sus sistemas presentarse como seres con sentimientos y que derive obligatoriamente a los usuarios a <b>servicios de emergencia</b> cuando manifiesten ideas suicidas. </p><p>Google señaló que ha entrenado a Gemini para evitar actuar como una compañía humana, simular intimidad emocional o fomentar el acoso. </p><p>El caso contra Google es el más reciente de una ola de litigios contra empresas de IA a raíz de muertes vinculadas al uso de chatbots. </p><p><b>OpenAI </b>enfrenta múltiples demandas en las que se alega que su chatbot <b>ChatGPT </b>llevó a usuarios al suicidio. </p><p><b>Character.AI</b> llegó recientemente a un acuerdo con la familia de un adolescente de <b>14 años </b>que falleció tras desarrollar un vínculo romántico con uno de sus chatbots. </p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/bhvJs7pjBDLLMmsrHo2CsuLCXpA=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/I5GPETW4SNG7ZLCJHUVJL5UO34.jpg"><media:description type="plain"><![CDATA[Google Gemini.]]></media:description><media:credit role="author" scheme="urn:ebu">Shutterstock</media:credit></media:content></item><item><title><![CDATA[Los asistentes virtuales con IA pueden agravar la ansiedad del usuario, según un estudio]]></title><link>https://www.abc.com.py/ciencia/2026/04/07/los-asistentes-virtuales-con-ia-pueden-agravar-la-ansiedad-del-usuario-segun-un-estudio/</link><guid isPermaLink="true">https://www.abc.com.py/ciencia/2026/04/07/los-asistentes-virtuales-con-ia-pueden-agravar-la-ansiedad-del-usuario-segun-un-estudio/</guid><dc:creator><![CDATA[EFE]]></dc:creator><description></description><pubDate>Tue, 07 Apr 2026 12:30:12 +0000</pubDate><content:encoded><![CDATA[<p><p>La investigación se centró en el uso de Replika, un chatbot con IA diseñado como amigo, mentor o pareja sentimental virtuales, para analizar cómo este tipo de tecnologías influyen en la salud mental y la vida social de sus usuarios.</p></p><p><p>Los investigadores recopilaron la actividad en la red social Reddit de casi 2.000 usuarios activos de Replika durante dos años, comparando su lenguaje un año antes y un año después de que empezaran a usar este asistente virtual, y combinaron estos datos con entrevistas en profundidad a 18 usuarios.</p></p><p><p>El estudio -uno de los primeros de este tipo que se realizan- demostró que, si bien la interacción con un asistente con IA ayudó a los usuarios, a largo plazo se produjo un aumento de los signos de angustia en los mensajes que publicaron en Reddit.</p></p><p><p>"Por un lado, las publicaciones de los usuarios giraban cada vez más en torno a sus relaciones, pero por otro, contenían más señales de soledad, depresión e incluso pensamientos suicidas que los del grupo de control", señaló Yunhao Yuan, uno de los autores del estudio.</p></p><p><p>La investigación reveló además que el uso de asistentes virtuales basados en IA puede afectar negativamente la capacidad de los usuarios para desenvolverse en las relaciones sociales del mundo real.</p></p><p><p>Los científicos recalcaron que sus hallazgos no ofrecen una respuesta definitiva sobre si es beneficioso o perjudicial recurrir a la IA para obtener apoyo emocional, aunque advirtieron del peligro de hacerlo de forma prolongada por sus riesgos sobre la salud mental a largo plazo.</p></p><p><p>"Ahora nos estamos dando cuenta de los errores que cometimos al abrazar las redes sociales sin cuestionarlas. Con la IA, tenemos que ser más inteligentes y cautelosos, porque la verdad es que aún no sabemos qué efectos tienen estos sistemas sobre nosotros", afirmó Talayeh Aledavood, profesora de la Universidad Aalto.</p></p><p><p>El trabajo científico será presentado en la conferencia sobre los factores humanos en los sistemas informáticos (CHI 2026) que se celebrará en Barcelona la semana próxima.</p></p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/8IhuewkPKhrHqRKSncsLKwC2f00=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/ZKT4SWCRDFDU5ANL5QSENBRNWY.jpg"/></item><item><title><![CDATA[Proyecto Maven: qué es el programa que llevó la IA al campo de batalla]]></title><link>https://www.abc.com.py/tecnologia/2026/04/07/proyecto-maven-que-es-el-programa-que-llevo-la-ia-al-campo-de-batalla/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/07/proyecto-maven-que-es-el-programa-que-llevo-la-ia-al-campo-de-batalla/</guid><dc:creator><![CDATA[Alba Acosta]]></dc:creator><description></description><pubDate>Tue, 07 Apr 2026 11:48:53 +0000</pubDate><content:encoded><![CDATA[<h2>De qué se trata el Proyecto Maven</h2><p><b>Proyecto Maven</b> es el nombre con el que se conoce a la iniciativa del <b>Departamento de Defensa</b> de <a href="https://www.abc.com.py/tag/estados-unidos/" target="_self" rel="" title="https://www.abc.com.py/tag/estados-unidos/">Estados Unidos</a> para aplicar <b>aprendizaje automático</b> al procesamiento de grandes volúmenes de información, especialmente <b>video e imágenes de vigilancia</b> captados por drones y otras plataformas. Su punto de partida fue práctico: la <b>guerra </b>moderna genera tantos <b>datos </b>que los analistas humanos no alcanzan a revisarlos en tiempo útil.</p><p>En términos simples, Maven busca que sistemas de <b>visión por computadora</b> automaticen tareas como detectar vehículos, personas u objetos en secuencias de video, <b>marcar patrones</b> y ayudar a clasificar lo relevante. </p><img src="https://www.abc.com.py/resizer/_e2XCQnhd_hErQ93sEw_fUwhJHc=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/A47WSNJ4BNCCTO7NHWTBRBHHTM.jpg" alt="Concepto de inteligencia artificial para uso bélico." height="3876" width="5808"/><p>La idea no es solo “ver mejor”, sino <b>ver más rápido</b>, reduciendo el tiempo entre la captura de una imagen y su interpretación operativa.</p><p><a href="https://www.abc.com.py/internacionales/2026/04/06/una-ia-controla-la-campana-militar-de-eeuu-en-iran-como-actua-que-resultados-obtuvo/">Una IA controla la campaña militar de EE.UU. en Irán: ¿cómo actúa? ¿qué resultados obtuvo?</a></p><h2>Por qué Google quedó en el centro de la tormenta</h2><p>La polémica estalló cuando se supo que <b>Google colaboraba</b> con el proyecto mediante <b>herramientas de IA en la nube</b> y modelos capaces de mejorar el etiquetado y la interpretación de imágenes. </p><p>El contrato —relativamente pequeño en dinero para el tamaño de la compañía— fue enorme en significado: simbolizaba el cruce explícito entre <b>tecnología de consumo</b> y <b>tecnología militar</b>.</p><p>Miles de empleados firmaron peticiones internas y algunas renuncias se volvieron públicas. El argumento era <b>ético </b>y <b>reputacional</b>: aunque Maven se presentara como un sistema de apoyo al análisis, su salida natural podía ser una <b>cadena de decisiones letales</b> más eficiente. </p><p>Tras la presión, Google decidió no renovar su participación y publicó en <b>2018</b> sus <b>principios de IA</b>, que incluían <b>límites </b>sobre <b>usos en armamento.</b></p><p><a href="https://www.abc.com.py/tecnologia/2026/04/06/la-vida-improbable-de-opportunity-el-rover-que-duro-14-anos-mas-de-lo-previsto-en-marte/">La vida improbable de Opportunity, el rover que duró 14 años más de lo previsto en Marte</a></p><h2>El núcleo del debate: ¿IA “de apoyo” o IA para matar mejor?</h2><p>Parte del choque se debe a un desacuerdo de fondo sobre el <b>lenguaje</b>. Para el <b>Pentágono</b>, herramientas como Maven pueden describirse como “asistencia” o “reducción de carga” del analista. Para críticos y organizaciones de <b>derechos humanos</b>, ese encuadre puede diluir lo esencial: si una IA acelera el ciclo de inteligencia que termina en un ataque, <b>la responsabilidad no desaparece</b>, solo se distribuye.</p><p>Además, la automatización introduce riesgos conocidos:</p><ul><li>La <b>opacidad</b> de algunos modelos dificulta explicar por qué se marcó un objetivo como “sospechoso”. </li><li>Los <b>sesgos</b> en los datos (imágenes parciales, condiciones específicas de un teatro de operaciones) pueden producir falsos positivos. </li><li>Y en entornos de alta presión, la tecnología puede generar un “<b>sesgo de automatización</b>”: la tendencia humana a confiar en la recomendación de la máquina.</li></ul><h2>Qué cambió desde entonces y por qué sigue siendo relevante</h2><p>Maven no fue un episodio aislado, sino un síntoma. Desde su lanzamiento, la defensa estadounidense ha ampliado su interés por la IA hacia la <b>fusión de datos</b> (imágenes, señales, texto), la priorización de alertas y la planificación. </p><p><a href="https://www.abc.com.py/tecnologia/2026/03/31/2026-sera-el-ano-de-los-agentes-de-ia-segun-el-creador-de-openclaw/">2026 será el año de los agentes de IA, según el creador de OpenClaw</a></p><p>El ecosistema tecnológico también cambió: empresas especializadas en defensa digital y análisis, junto con grandes proveedores de nube, han buscado ocupar el espacio que Google dejó.</p><p>El debate se volvió global porque la pregunta se repite en cualquier capital con fuerzas armadas y capacidad tecnológica: <b>qué límites debe tener la IA militar</b>, cómo se audita, quién responde por errores y qué ocurre cuando estas herramientas se exportan o se replican en conflictos con estándares legales dispares.</p><p>Proyecto Maven, en definitiva, no es solo un programa. Es un punto de inflexión que expuso una tensión difícil de resolver: la misma IA que promete “ordenar el caos” de los datos puede, en manos del Estado, <b>reconfigurar el umbral moral y operativo de la guerra</b>.</p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/SVmKeZ99mhWTq-2-nbBwbdS_vdw=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/AH74U2FSIFCHFA7UDOGTD63F6M.jpg"><media:description type="plain"><![CDATA[Una figura central con monitor de computadora reemplazando la cabeza representa la inteligencia artificial en conflictos bélicos.]]></media:description><media:credit role="author" scheme="urn:ebu">shutterstock</media:credit></media:content></item><item><title><![CDATA[La vida improbable de Opportunity, el rover que duró 14 años más de lo previsto en Marte ]]></title><link>https://www.abc.com.py/tecnologia/2026/04/06/la-vida-improbable-de-opportunity-el-rover-que-duro-14-anos-mas-de-lo-previsto-en-marte/</link><guid isPermaLink="true">https://www.abc.com.py/tecnologia/2026/04/06/la-vida-improbable-de-opportunity-el-rover-que-duro-14-anos-mas-de-lo-previsto-en-marte/</guid><dc:creator><![CDATA[Alba Acosta]]></dc:creator><description></description><pubDate>Mon, 06 Apr 2026 11:41:58 +0000</pubDate><content:encoded><![CDATA[<h2>Un final quieto en Meridiani Planum</h2><p>En la llanura de <b>Meridiani Planum</b>, cerca del ecuador marciano, yace uno de los capítulos más conmovedores de la <b>exploración espacial</b> moderna. Allí terminó su recorrido <b>Opportunity</b> —“Oppy” para ingenieros y público—, el <b>rover</b> gemelo de <b>Spirit</b> dentro del programa <b>Mars Exploration Rover</b> de la <a href="https://www.abc.com.py/tag/nasa/" target="_self" rel="" title="https://www.abc.com.py/tag/nasa/"><b>NASA</b></a>. </p><p>Había sido diseñado para durar <b>90 soles</b> (días marcianos), pero operó <b>14 años más de lo previsto</b>: desde enero de <b>2004 </b>hasta su última transmisión en junio de <b>2018</b>.</p><p>Ese contraste entre expectativas y realidad explica buena parte de su mito. <b>Marte</b>, que suele arruinar planes con polvo abrasivo, frío extremo y tormentas impredecibles, le concedió a Opportunity algo inusual: tiempo.</p><p><a href="https://www.abc.com.py/ciencia/2026/04/06/oportunidad-unica-eclipse-solar-durante-mision-artemis-ii/">Oportunidad única: eclipse solar durante misión Artemis II</a></p><h2>La tormenta que apagó al rover “solar”</h2><p>El 10 de junio de 2018, una <b>tormenta global de polvo</b> comenzó a envolver el planeta. Para Opportunity, alimentado por <b>paneles solares</b>, el polvo no era solo paisaje: era oscuridad. La luz cayó, las baterías se agotaron y el rover dejó de responder.</p><p>Durante meses, la NASA intentó restablecer contacto enviando comandos y escuchando. El 13 de febrero de <b>2019</b>, la agencia dio por concluida la misión. </p><p>No hubo explosión ni choque: solo silencio, como si el rover hubiera quedado guardando el lugar donde el viento marciano lo cubrió.</p><h2>Por qué “Oppy” importó: agua antigua y geología en primera persona</h2><p>Opportunity no solo sobrevivió: <b>cambió lo que sabemos sobre Marte</b>. En sus primeras semanas encontró rocas y esferas ricas en hematita —las célebres “blueberries”— que apuntaban a un pasado con <b>agua líquida</b>. </p><p>Más tarde, al borde de <b>Victoria</b> y en las laderas del <b>cráter Endeavour</b>, observó minerales y capas que reforzaron la idea de un Marte más húmedo y químicamente diverso.</p><p><a href="https://www.abc.com.py/ciencia/2026/04/05/nasa-publica-la-primera-foto-de-la-cara-oculta-de-la-luna-tomada-por-la-mision-artemis-ii/">NASA publica la primera foto de la cara oculta de la Luna tomada por la misión Artemis II</a></p><p>En total recorrió <b>más de 45 kilómetros</b>, un récord para vehículos fuera de la Tierra durante años. Su travesía incluyó terrenos inclinados, dunas y afloramientos que permitieron leer la historia del planeta como si fueran páginas de piedra.</p><h2>El “cementerio de robots” y lo que queda después</h2><p>Hablar de un “cementerio de robots” en Marte no es solo una metáfora: allí permanecen, donde se detuvieron, diversas misiones que abrieron camino: desde módulos de aterrizaje hasta rovers. </p><p>Opportunity es quizá el más humano de esos restos tecnológicos: no por tener emociones, sino porque su larga resistencia convirtió cada pausa, cada recuperación y cada reinicio en un relato de perseverancia.</p><p><a href="https://www.abc.com.py/ciencia/2026/04/04/como-haber-caido-del-cielo-esto-dijo-el-astronauta-jeremy-hansen-en-una-videollamada/#:~:text=%E2%80%9CParece%20que%20vamos%20a%20estrellarnos%20contra%20ella%E2%80%9D&text=%E2%80%9CTuve%20la%20sensaci%C3%B3n%20de%20que,cerca%20(...).">Como haber “caído del cielo”: esto dijo el astronauta Jeremy Hansen en una videollamada</a></p><p>Hoy, mientras <b>Curiosity</b> y <b>Perseverance</b> continúan trabajando y nuevas misiones se planean, Opportunity sigue siendo un recordatorio nítido de que en Marte, incluso las victorias son temporales, pero los datos y las huellas pueden durar mucho más que cualquier diseño original.</p>]]></content:encoded><media:content type="image/jpeg" url="https://www.abc.com.py/resizer/YQibH_qtopGq2P0qOxrMuos0LsQ=/cloudfront-us-east-1.images.arcpublishing.com/abccolor/FG47ZFK6YNC4DMLYP33MXOCCYE.jpg"><media:description type="plain"><![CDATA[Un concepto artístico muestra un rover de exploración de Marte de la NASA en la superficie del planeta. Los rovers Opportunity rover y Spirit rover fueron lanzados con pocas semanas de diferencia en 2003 y aterrizaron en enero de 2004 en dos sitios distintos de Marte. Cada rover fue diseñado con la movilidad y las herramientas necesarias para funcionar como un geólogo robótico.]]></media:description><media:credit role="author" scheme="urn:ebu">wikipedia+</media:credit></media:content></item></channel></rss>