Cuatro claves para una ciberseguridad más eficaz
Dejar de contar vulnerabilidades y observar los riesgos, visibilidad como punto de partida, reducir el número de herramientas de seguridad y realizar informes que aporten prácticos concretos, son las cuatro claves que mejorarán la eficacia de la ciberseguridad en 2022.
Según los expertos, 2022 está siendo un “año de concienciación” con un gran número de corporaciones redirigiendo la estrategia de seguridad hacia la observación de riesgos, en lugar de hacia la tradicional observación de vulnerabilidades. Los ecosistemas TI actuales se caracterizan por su complejidad y diversidad, con un promedio de uso, según Gartner, de 16 herramientas diferentes de seguridad en cada compañía, lo que dificulta enormemente la labor de los profesionales de la ciberseguridad.
Por esa razón, según un análisis realizado por los expertos de Qualys, aunque el número de vulnerabilidades continúa aumentando y hasta el momento se cuentan por cientos de miles (más de 185.000 registradas hasta la fecha), en la práctica los ciberatacantes solo están siendo capaces de explotar dos vulnerabilidades de cada mil.
Por esta razón, los expertos de Qualys han priorizado cuatro tendencias clave para mejorar la eficacia de la ciberseguridad a día de hoy.
1. De la observación de vulnerabilidades a la observación de riesgos
Con la figura del responsable de seguridad o CISO cada vez más presente en los órganos directivos de las organizaciones, es necesario trasladar a estas instancias superiores una información clara y concisa acerca de los riesgos empresariales reales. “Hablar en términos de vectores de ataque y enumerar vulnerabilidades o sistemas de puntuación no es una estrategia acertada”, según explica Sergio Pedroche, country manager de Qualys para España y Portugal. “Es esencial que todos los datos se analicen desde una perspectiva centrada en el riesgo que proporcione una imagen más clara del panorama real de amenazas”.
2. Visibilidad como punto de partida
La evaluación de amenazas es imposible sin una visibilidad integral y esta es una tarea ardua, pero clave, en el marco de los complejos entornos de TI actuales. Ver cada elemento, enumerarlo y cuantificar sus vulnerabilidades será el primer paso que permitirá a las organizaciones priorizar las amenazas de manera más efectiva.
3. Reducción del número de herramientas dispares de seguridad
Las herramientas de seguridad dispares de hoy en día a menudo funcionan en silos. Las tendencias apuntan hacia la consolidación en una plataforma unificada que ofrezca capacidades de automatización para monitorización, detección y corrección de riesgos, de modo que los equipos de seguridad puedan dar el siguiente paso importante hacia la gestión de riesgos. De estas plataformas surge la inteligencia procesable que permite a los equipos reducir el riesgo y mejorar el cumplimiento, según lo requiera cada negocio de forma particular.
4. Informes que aporten conocimientos prácticos concretos
La plataforma unificada puede ofrecer una gran variedad de opciones de informes y paneles automatizados. Rompiendo con la tradición, los informes de seguridad modernos brindan métricas concisas y definidas por el riesgo que dan cuenta de los requisitos específicos del negocio, así como de los estándares de la industria, los puntos de referencia, las mejores prácticas y los marcos regulatorios.
“Diferentes organizaciones tendrán diferentes necesidades de cumplimiento y la tarea del CISO actual es, más que nunca, la de filtrar lo insignificante y proteger lo crítico, cumpliendo las normas sin afectar la agilidad del negocio”, resalta Pedroche.
Según los expertos de Qualys, la conclusión para los responsables de la toma de decisiones en el ámbito de la seguridad es clara a día de hoy: el negocio considera el riesgo desde el punto de vista del daño potencial, en lugar de la probabilidad de ocurrencia. 2022 está siendo por tanto un año donde la concienciación está aumentando en este sentido y los profesionales de la seguridad están cada vez ajustando más su postura frente a las amenazas, para que ambas estrategias estén alineadas.
Danos la oportunidad de acompañarte en tus procesos tecnológicos en esta nueva era digital.
¡Conócenos!
55 7862 5502
Los operadores abaratan las nuevas generaciones de servicios en la nube
Para seguir siendo competitivos los proveedores de servicios en la nube deben actualizarse con las nuevas generaciones de plataformas de computación y virtualización, pero no pueden deshacerse de los equipos anteriores si los clientes no cambian. Estos deben decidir si actualizarse o no, y los operadores quieren incentivar la migración de las instancias virtuales a nuevas plataformas reduciendo los precios de acceso a las tecnologías más modernas, una estrategia que les proporciona mayores márgenes brutos.
La industria de servicios en la nube está creciendo rápidamente y la tecnología subyacente evoluciona constantemente para mejorar las capacidades de computación, virtualización, almacenamiento, etcétera. Esto obliga a los proveedores cloud a adquirir constantemente nuevos equipos, pero las instancias en la nube que utilizan sus clientes no migran automáticamente a las nuevas plataformas. Para recuperar la inversión en nuevas tecnologías los proveedores ofertan a los clientes los nuevos servicios, y estos deciden si quieren actualizarse o mantener las condiciones actuales.
En un artículo publicado esta semana, el Dr. Owen Rogers, director de investigación de computación en la nube del Uptime Institute, explica cómo se están desarrollando las actualizaciones de infraestructura y servicios en la nube en la industria. Comenta que, en principio, los operadores prefieren la continuidad del producto entre diferentes generaciones de infraestructura, en muchos casos creando instancias virtuales casi idénticas a las originales.
Pero cada instancia virtual tiene lo que denomina una “familia” que determina el perfil del servidor físico, la capacidad de aumento en los recursos de computación o memoria. Asimismo, un “tamaño” establece la cantidad de memoria, procesadores virtuales, discos y otras capacidades que se asignan a cada instancia. Al lanzar una nueva generación de equipos o servicios se crea una nueva gama de instancias virtuales con su propia definición de familia y tamaño, que tratan de ser lo más parecidas posible a las anteriores, con la única diferencia fundamental del hardware de servidor en el que se ejecutan.
Pero en la mayoría de los casos las nuevas generaciones de infraestructura no sustituyen a las anteriores, sino que estas siguen disponibles para los clientes que quieran comprarlas. Así, estos pueden migar sus cargas de trabajo a la nueva generación, si así lo desean, pero no de forma automática. Con ello los proveedores de la nube quieren ofrecer la posibilidad de que los clientes se actualicen a su propio ritmo, sin obligarles a realizar una migración de aplicaciones que podrían no ser compatibles con los nuevos servidores.
La convivencia entre las diferentes generaciones de equipos crea una gran complejidad para los usuarios, con un número cada vez mayor de opciones y con una variedad de instancias virtuales basadas en distintas generaciones que deben administrar. A esto se suma que en los últimos tiempos los operadores de centros de datos de la nube han agregado diferentes arquitecturas de procesadores, que actualmente abarcan desde los Intel a los AMD y, más recientemente, las plataformas de CPU basadas en ARM, en el caso de Amazon Web Services. Según los expertos del Uptime Institute, esta tendencia va a seguir avanzando en los próximos años, añadiendo aún más complejidad a los entornos de la nube.
Para simplificar todo este aparente caos los operadores están lanzando incentivos de precios, con el fin de estimular la migración de los clientes a las nuevas generaciones y arquitecturas de servidor, ajustando al máximo posible el coste promedio por CPU virtual. Esto se está viendo en los principales proveedores y en la mayoría de regiones que abarca mercado de la nube en todo el mundo.
En este artículo destacan que la mayoría de instancias virtuales están tendiendo hacia una reducción de precio, en la que el costo promedio de uso general de la familia está cayendo un 50% desde que se lanzó esa generación hasta la actualidad. Cada familia ofrece asimismo una variedad de configuraciones de memoria, red y otras características que no se tienen en cuenta en el precio de una CPU virtual, lo que para los investigadores justifica la diferencia de precio entre las distintas familias.
Aunque también señalan que la potencia de computación que requiere cada CPU virtual aumenta a medida que van surgiendo nuevas generaciones, generalmente de forma incremental. Esto se debe a que las tecnologías de procesadores más avanzadas suelen ofrecer velocidades de reloj superiores y una mayor inteligencia asociada a los núcleos, que promete ejecutar los códigos más rápido, aunque con un mayor costo oculto en forma de consumo energético.
De esta forma, los clientes generalmente esperan más velocidad por el mismo precio o menos al cambiar de generación, por lo que los operadores de la nube están incentivando la migración a plataformas más modernas y más eficientes energéticamente. Esto se ve principalmente en el comportamiento de proveedores como AWS, que gracias al ahorro de energía que obtienen con esta estrategia pueden reducir el precio para los clientes por el mismo nivel de servicio.
Además, las nuevas plataformas también permiten ejecutar más cargas de trabajo, lo que aporta beneficios comerciales a los operadores que siguen esta estrategia. Los expertos explican que el balance entre el ahorro de costos que los operadores transmiten a los clientes y el aumento del margen bruto que obtienen los proveedores con ello no es conocido por los clientes. Mientras tanto, estos priorizan el costo sobre el rendimiento para la mayoría de sus aplicaciones, lo que les lleva naturalmente a actualizarse a las nuevas generaciones, lo que está abaratando el precio de las instancias virtuales en general.
Aunque esto solo se cumple en el caso de las plataformas e instancias basadas en CPU, porque las instancias basadas en GPU tienen precios superiores, ya que estas plataformas no se dividen en unidades estándar de capacidad. En este caso, los clientes demandan acceso a todos los recursos de aceleración GPU disponibles para sus aplicaciones. Por ejemplo, para acelerar el entrenamiento de redes neuronales profundas o resolver grandes problemas computacionales que requieren procesamiento paralelo de alto nivel. Esto hace que los proveedores de la nube que ofrecen estos servicios hayan podido subir los precios, ya que en este caso los clientes están dispuestos a pagar más por contar con una potencia de cálculo superior.
En cualquier caso, el Uptime Institute prevé que los proveedores de la nube seguirán aplicando automatización, innovando y negociando para reducir el costo de sus operaciones, entre las que el coste computacional solo es una parte, pero que tiene cierto peso en el negocio. En este camino continuarán incentivando el cambio a nuevas generaciones, familias y tamaños de instancias virtuales para ampliar su margen y ofrecer las tecnologías más modernas a los clientes a un precio competitivo. Así, prevén que las nuevas generaciones tenderán a ser más baratas para el cliente en el mismo nivel de servicio, mientras que ellos podrán sumar más clientes sin tener que escalar excesivamente su infraestructura y, por tanto, el costo.
Danos la oportunidad de acompañarte en tus procesos tecnológicos en esta nueva era digital.
¡Conócenos!
55 7862 5502
La UE impondrá el cargador único a móviles y otros dispositivos electrónicos desde otoño de 2024
El cargador universal será del tipo USB-C. El objetivo de la nueva legislación es reducir la basura electrónica en la Unión Europea
Los negociadores del Parlamento Europeo y de los Veintisiete han alcanzado este martes un acuerdo para imponer el cargador único USB-C a partir de otoño de 2024 a una quincena de dispositivos electrónicos portátiles, incluidos teléfonos, tabletas, cámaras digitales, auriculares y consolas de videojuegos.
La adopción formal del acuerdo por el pleno del Parlamento Europeo y del Consejo está prevista para después del verano, lo que permitirá la entrada en vigor de las nuevas normas 24 meses después, en otoño de 2024.
Asimismo, también será obligatorio el cargador universal para ordenadores portátiles, pero este se implantará más tarde. Las instituciones europeas han previsto un periodo adicional de 18 meses desde la entrada en vigor de la norma para dar al sector tiempo suficiente de adaptación.
Uno de los objetivos de la nueva legislación es reducir la basura electrónica en la Unión Europea y evitar que los consumidores tengan que adquirir cables y cargadores nuevos con cada compra de dispositivo.
Según los datos de la UE, cada año se generan entre 11.000 y 13.000 toneladas de residuos electrónicos en el espacio comunitario. Según su estimación, con la generalización del cargador único los europeos podrán ahorrarse unos 250 millones de euros en soluciones de carga innecesarias.
En la reunión de este martes también se han acordado otras novedades, como la obligación de informar y etiquetar de forma clara las opciones de carga. Además, la etiqueta deberá indicar si el producto viene con cargador.
Danos la oportunidad de acompañarte en tus procesos tecnológicos en esta nueva era digital.
¡Conócenos!
55 7862 5502
Fuente: eitb.eus
Los CAPTCHAs tienen los días contados y esta es la tecnología que acabará con ellos
Las grandes tecnológicas prueban un sistema para diferenciar humanos y bots que desplazará a las tediosas pruebas de identificar semáforos, etc.
Si hubiese que escoger dos molestias universales a la hora de navegar por la web sin duda alguna la lista estaría encabezada por los omnipresentes avisos para aceptar cookies y los conocidos como CAPTCHAs, esas pruebas que permiten al servidor saber si eres un humano o un robot.
Buenas noticias: todo apunta a que dentro de poco podremos por fin decir adiós a los segundos. Apple, Google, Cloudflare y Fastly trabajan desde hace años en un protocolo, Privacy Pass, que permitirá identificar a un internauta como una persona legítima y no una cuenta automatizada. Apple, de hecho, incluirá soporte para esta función en iOS 16, iPadOS 16 y macOS Ventura, los sistemas operativos que llegarán a los dispositivos de la compañía en otoño.
Los CAPTCHAs nacieron en el año 2000 como una forma de prevenir que cuentas automatizadas abusaran de ciertos servicios web o creasen usuarios falsos en diferentes. Se trata de pequeñas pruebas que son en teoría fáciles para un humano pero muy complejas para un ordenador, como leer un texto distorsionado o oculto bajo un patrón de colores.
El nombre es un acrónimo de Completely Automated Public Turing test to tell Computers and Humans Apart (test de Turing público completamente automatizado para distinguir a los ordenadores y a los humanos) y las versiones más recientes aprovechan la prueba para ayudar entrenar algoritmos de aprendizaje de máquina. Es la razón por la que algunos CAPTCHAs piden que identifiques motocicletas, pasos de peatones, coches o semáforos en fotos tomadas a pie de calle.
Este tipo de pruebas pueden parecer una molestia menor, pero presentan varios inconvenientes, sobre todo para usuarios con alguna discapacidad. Los más simples tampoco resultan muy efectivos a la hora de separar humanos y bots, porque hoy en día algunas de las pruebas que inicialmente se consideraban complejas para una máquina resultan triviales.
Además, suponen una pérdida de tiempo considerable. Según Cloudflare cada día los humanos empleamos un tiempo agregado equivalente a 500 años en la resolución de CAPTCHAs
Privacy Pass sustituye estos retos o pruebas por un identificador de acceso que confirma que el usuario es humano y que se genera automáticamente al utilizar de forma normal el teléfono o el ordenador. Acciones como la identificación biométrica o la forma en la que se sostiene el teléfono y su movimiento permiten al sistema dar fe de que el acceso se está haciendo de manera legítima.
El identificador es completamente anónimo y aleatorio, lo que añade otra ventaja al proceso de identificación frente a los CAPTCHAs convencionales, que registran el número IP del usuario. Cientos de servicios tendrán soporte para esta herramienta en otoño y muchos más se sumarán en los meses siguientes.
Fuente: ElMundo.es
Danos la oportunidad de acompañarte en tus procesos tecnológicos en esta nueva era digital.
¡Conócenos!
55 7862 5502
Orgullo UNAM; México listo para ser una nación que produzca tecnología espacial
La Universidad Nacional Autónoma de México (UNAM) sigue trabajando para posicionar a México como una de las naciones productoras de tecnología espacial. Con tan solo unos meses del lanzamiento del proyecto lunar de Colmena, ya comenzaron los trabajos de investigación para mandar la segunda misión mexicana lunar y un satélite, que serán controlados por la inteligencia artificial.
Colmena 2 es el proyecto lunar que enviará robots orgánicos, “que serán tan funcionales como el ser humano”, pues tendrán la capacidad de adaptarse al terreno lunar, movilizarse sin ruedas, -los primeros en su especie- y podrán recolectar muestras de minerales para ser estudiados por científicos mexicanos.
A diferencia de la primera misión lunar, que se enviará el segundo semestre de este año desde Estados Unidos, los robots de esta segunda edición podrán adaptarse en la noche, se trasladarán autónomamente por toda la superficie lunar y tendrán las capacidades básicas para la prospección y explotación minera.
A la par La UNAM desarrolla Nanoswai, un satélite controlado por inteligencia artificial que será el sucesor de nanoconnect2, lanzado el año pasado desde la India. Este satélite constará de dos funciones vitales: la primera hacer mediaciones del clima espacial con el cálculo de los efectos permanentes de la actividad del sol, a través de las partículas que se desprenden en el espacio.
Fuente:DiarioContraRépublica
Danos la oportunidad de acompañarte en tus procesos tecnológicos en esta nueva era digital.
¡Conócenos!
55 7862 5502