La guerra que no se ve: ciberataques, desinformación y control social
Ciberataques: cuando lo digital corta lo esencial
La “guerra” moderna no siempre suena a explosiones. A veces se siente como un hospital sin sistema, un aeropuerto paralizado, una municipalidad sin atención, o un servicio de emergencias que no puede coordinar. Los ciberataques (ransomware, phishing, intrusiones, filtraciones) apuntan cada vez más a lo que mantiene viva a una sociedad: salud, energía, agua, transporte, telecomunicaciones y gobierno.
En una crisis —inundaciones, incendios, olas de calor, tormentas severas— la dependencia tecnológica se vuelve total: mapas, alertas, turnos, logística, donaciones y comunicación oficial. Por eso, atacar sistemas en momentos de tensión puede amplificar el daño: no hace falta destruir un puente si podés romper la coordinación.
Una guía práctica para reducir el riesgo y responder mejor ante ransomware es la guía StopRansomware de CISA (muy útil para organizaciones y municipios).

Desinformación: el ataque a la confianza durante una emergencia
La desinformación no busca “convencerte”: busca desordenar decisiones. En emergencias, puede provocar desde pánico hasta inacción, pasando por ataques a brigadistas, acoso a científicos, o campañas para instalar que “todo es mentira” cuando la evidencia muestra lo contrario.
En clima extremo, el patrón se repite: circulan alertas falsas, capturas editadas, audios anónimos y “expertos” inexistentes que prometen certezas. Eso compite con los canales reales y desgasta la credibilidad justo cuando hace falta obedecer consignas simples: evacuar, hidratarse, no circular, no hacer fuego, no tocar cables caídos.
La OMS define el concepto de infodemia como exceso de información, incluida la falsa o engañosa, durante brotes o emergencias, que genera confusión y conductas de riesgo. Esa idea aplica perfecto a emergencias climáticas, incendios y crisis sanitarias.
Control social: micro-manipulación, miedo y normalización
El “control social” no siempre es una orden explícita. Puede ser una suma de empujones invisibles:
Fatiga informativa (te saturan para que te rindas).
Polarización (te empujan a bandos para que no veas el problema real).
Desconfianza sistemática (si nadie es creíble, gana el caos).
Autocensura (la gente deja de preguntar por miedo al ridículo o al ataque).
En escenarios de emergencias, esto se vuelve crítico. Si una comunidad cree que “todo es operación”, se cae la herramienta más poderosa: la acción colectiva. Y si los equipos de respuesta gastan energía desmintiendo rumores, pierden tiempo operativo.
El objetivo final no es que “pienses X”, sino que no puedas coordinarte. En ese sentido, la confianza es infraestructura, igual que una ruta o una guardia médica.
Señales de alerta: cómo reconocer una operación digital (en 30 segundos)
Para OrbesArgentina, una regla editorial útil es esta: si una pieza informativa te exige reaccionar YA, sin verificación, probablemente te están empujando. Checklist rápido:
Fuente difusa: “me dijo un amigo”, “llegó al grupo”, “es oficial” sin organismo.
Capturas sin enlace (o enlaces raros) y videos recortados.
Audio de WhatsApp con tono urgente y sin datos verificables.
Datos extremos sin contexto (números sin fecha, sin lugar, sin método).
Culpa y bronca dirigidas: “no evacuaron porque…” sin evidencia.
Llamados a acciones peligrosas: “andá a ayudar a tal zona” sin coordinación.
En emergencias, verificar salva vidas. La velocidad es importante, pero la precisión también. Si no podés confirmar, publicá como “en desarrollo” y explicitá qué falta validar.
Resiliencia para Orbes: protocolo simple para crisis (ciber + info + clima extremo)
Podés tratar esto como un plan de continuidad editorial y comunitaria:
-
Canales oficiales fijos y visibles: mantené una lista corta de organismos (nación/provincia/municipio, meteorología, bomberos) y actualizala.
-
Formato “Alerta Orbes”: plantilla corta con: qué pasa, dónde, desde cuándo, qué hacer, fuente, y actualización cada X minutos.
-
Higiene digital mínima del equipo: 2FA, contraseñas únicas, backups, permisos por rol. La guía de CISA es un buen punto de partida para políticas internas.
-
Regla anti-rumor: nunca amplificar capturas/ audios sin confirmación; si se desmiente, hacerlo con pruebas y explicación simple.
-
Educación express a la audiencia: posts cortos “Cómo detectar alertas falsas”, “Qué hacer ante ola de calor”, “Cómo verificar un mapa”. Esto baja la ansiedad y sube la cooperación.
Para contexto de amenazas más amplias (incluyendo hacktivismo, DDoS, ingeniería social y tendencias), el ENISA Threat Landscape 2025 es un buen marco general para entender la evolución del riesgo.
En la guerra que no se ve, la victoria cotidiana no es “tener razón”: es mantener servicios críticos, proteger a la gente y sostener la confianza cuando todo alrededor empuja al caos. OrbesArgentina puede ocupar un lugar clave: ser el puente entre emergencias reales, ciencia verificable y acción concreta.




























