vcollado

About Vanessa Collado

This author has not yet filled in any details.
So far Vanessa Collado has created 530 blog entries.

La Nube, antes y ahora

2025-02-04T18:17:11-06:00noviembre 28, 2017|Internet, Servicios Cloud|

la nube antes y ahora

La Nube, antes y ahora. En los últimos diez años, la Nube ha definido el mundo de los negocios. A pesar del escepticismo inicial, las preocupaciones de seguridad y la confusión sobre su propia definición, la Nube continuará transformando la manera en que trabajamos. Grandes momentos Cloud, 10 años.2007, Dropbox lanza su servicio de almacenamiento en la Nube. 2010, el gobierno de EE.UU. anuncia el uso de cómputo en la nube para el sitio usa.gov, portal oficial. Microsoft lanza MS Azure. 2011, Lanzamiento de Google Cloud. Se introduce el concepto de Nube híbrida. 2013, la CIA firma un contrato por 600 millones de dólares con AWS para la construcción de una Nube privada. 2016, décimo aniversario de Amazon Web Services, AWS. 2017, el cómputo en la Nube alcanzará los 246 mil millones de dólares. Cambios en percerción de la Nube. 2007, Nadie parece estar listo para realmente apostar al cómputo en la Nube – John Markoff, The New York Times-. 2010, La pregunta sería, si la Nube está lista para reemplazar en vez de complementar, a la vieja escuela del cómputo centrado en la PC -Harry McCracken, TIMErevenue-. 2013, El cómputo en la Nube impactará la manera en que hacemos negocios al brindar una ventaja competitiva a aquellas organizaciones lo suficicentemente audaces para pensar diferente -Joe Baguley, The Guardian-. 2016, El cambio al cómputo en la Nube se convertirá en una de las fuerzas más disruptivas de TI desde el comienzo de la era informática -Barb Darrow, Fortune-.

Administración Financiera hacia la Nube

2017-11-27T13:21:21-06:00noviembre 27, 2017|Internet, Servicios Cloud|

Según Gartner, se ha registrado un cambio importante en la manera en que las empresas eligen sus aplicaciones de administración financiera, por ejemplo, la migración a aplicaciones en la Nube se ha incrementado más de lo esperado. Se pronostica que para 2020, el 36% de las empresas usará la Nube en más de la mitad de sus sistemas transaccionales.

Gartner encuestó a 439 ejecutivos financieros senior mundiales (incluidos 410 que habían implementado soluciones de gestión corporativa en la Nube, tanto estratégica como financiera) de enero a marzo de 2017 para explorar su perspectiva tecnológica, necesidades y prioridades en inversión tecnológica.

De acuerdo a la encuesta:

  • Las organizaciones de todos los tamaños se están trasladando a la Nube, con aplicaciones financieras y sistemas transaccionales de registro.
  • Cada año, el crecimiento del cómputo en la Nube es consistentemente más alto en aplicaciones financieras.
  • Las aplicaciones de análisis y negocios continúan siendo las principales iniciativas de inversión para los altos ejecutivos financieros.

‘Hemos descubierto que la mayoría de los clientes que utilizan este tipo de aplicaciones están especialmente interesados en la opción de la Nube’, indica John Van Decker, vicepresidente de investigación en Gartner.

Gartner descubrió que los mercados de gestión de capital humano han ido migrando sus aplicaciones comerciales a la Nube, en el caso de finanzas, esto ha sido un poco más lento.  Sin embargo, y debido al rumbo actual del mercado, las cosas están cambiando para la organización financiera, y aunque los CFO suelen ser más conservadores con respecto a la transferencia de datos a la Nube, habrá una migración constante durante los próximos cinco a diez años.

‘La encuesta de Gartner mostró que el 93% de las empresas considera que la Nube será utilizada por lo menos en la mitad de las transacciones empresariales a futuro’, dijo Van Decker. ‘La Nube definitivamente ha cambiado el juego para las aplicaciones comerciales de gestión financiera. Los proveedores han respondido con plataformas nuevas y reestructuradas, y la mayoría ha restado énfasis a sus soluciones locales a favor de las implementaciones en la Nube, debido a que son más rentables y reducen el esfuerzo del soporte de TI local’.

Fuente https://www.gartner.com/newsroom/id/3800963

 

VMware en el Ministerio de Ciencia Argentina

2025-02-06T16:46:42-06:00noviembre 22, 2017|Virtualización|

A principios de 2011, el ministro, Dr. Lino Barañao, propuso a la Dirección de Sistemas el análisis de viabilidad de un proyecto para la virtualización de escritorios.

Rápidamente, se advirtieron las ventajas que el proyecto llevaría. En este sentido, el organismo necesitaba redimensionar los recursos para adaptarlos a las decisiones estratégicas, y que el impacto sobre el trabajo diario del usuario fuera el menor posible con las aplicaciones funcionando correctamente.

De esta forma, se eligió las soluciones ESXi (hipervisor en estaciones de trabajo y servidores), vSphere (hipervisor), Horizon View (gestionador de la plataforma de virtualización de escritorios), vCenter (gestor de la infraestructura de escritorios y servidores) y Operations Manager de VMware.

El Director de Sistemas en el Ministerio, Andrés D’Alessio, afirma: ‘Lo que más nos aporta esta infraestructura apoyada en VMware es esa versatilidad, fluidez y elasticidad para disponer de alta capacidad y responder de manera dinámica a la demanda interna. Nuestra visión es que aportaba flexibilidad para la evolución del porte de las estaciones de trabajo, que es un problema muy recurrente en la administración pública. Las máquinas van quedando obsoletas, ampliar masivamente esos recursos es muy costoso para un organismo público.’

‘También teníamos cierta incertidumbre porque no encontrábamos casos de virtualización similares, con al menos 300 estaciones de trabajo en el país, aunque nuestro proyecto preveía la virtualización de 600 terminales. Tampoco encontrábamos equipos técnicos preparados para manejar proyectos de VDI de esta escala. Como pioneros, tuvimos que enfrentar el desafío del cambio’.

El ministro Barañao indica: ‘Este objetivo ha exigido una serie de innovaciones con respecto a la estructura organizacional y los instrumentos de financiamiento. El redimensionamiento de recursos implicó, por ejemplo, redefinir el porte de algunos nodos que configuraban los cluster de servidores que se quería utilizar para virtualizar los escritorios, pues iban a ser insuficientes para el volumen de procesamiento que se requería, así como ajustar algunas características de almacenamiento. Sabíamos que la administración de las estaciones de trabajo iba a permitir incorporar eficiencias para que el plantel de técnicos que estaba a cargo del soporte pudiera rendir mejor, y así fue’.

‘Somos pioneros en virtualización de estaciones de trabajo. De hecho, hemos buscado difundir las ventajas de este nuevo paradigma. Para nosotros, garantizar el servicio comienza con proveerse y gestionar una infraestructura técnica de alta disponibilidad que permita la continuidad del servicio para el usuario final’, concluye.

En la actualidad, el Ministerio cuenta con casi 800 computadoras personales virtualizadas, y no hay muchas experiencias similares, las que hay, están en el sector privado, pero no en la Administración Pública.

En Adaptix Networks hacemos uso de las soluciones VMware para brindar a nuestros clientes las mejores herramientas para simplificar la colaboración entre TI y las unidades de negocio de las empresas. Le invitamos a ponerse en contacto con nosotros para proveerle más información al respecto, así como los casos de éxito con nuestros clientes.

Fuente http://www.itsitio.com/ar/la-virtualizacion-los-escritorios-la-gestion-publica/

 

Mitigar riesgos de los ciberataques

2025-02-06T16:48:25-06:00noviembre 13, 2017|Seguridad, Virtualización|

Los ciberataques se han vuelto algo común, frecuentemente surgen titulares que describen el caos por la interrupción de operaciones comerciales y gubernamentales a causa de dichos ataques cibernéticos.

Recordamos el ataque de WannaCry en el Servicio Nacional de Salud del Reino Unido (NHS) que causó la cancelación de casi 6,900 citas médicas y operaciones. Después con Petya se interrumpió las operaciones comerciales en Europa y Estados Unidos, las computadoras de numerosas organizaciones se vieron afectadas y la información fue tomada a cambio de un rescate.

En un mundo cada vez más interconectado, un sistema no parcheado, una red pobremente estructurada o incluso un empleado deshonesto puede causar un efecto dominó en la economía global.

Aunque los ataques cibernéticos ocurren con frecuencia, las empresas en general parecen no estar preparadas para enfrentar y mitigar los riesgos. Según una encuesta realizada por PwC, el 44% de los 9,500 ejecutivos encuestados en 122 países indicaron que no cuentan con una estrategia de seguridad. Alrededor del 48% no tenía un programa de concientización para el empleado, y el 54% no tenía un proceso de respuesta a incidentes.

Una manera para reducir el daño causado por los ciberataques o por ransomware es la utilización de virtualización de escritorio y aplicaciones, la cual brinda lo siguiente:

Seguridad de datos

La solución de virtualización de aplicaciones y escritorios Horizon de VMware aprovecha la plataforma de administración Just-In-Time (JMP), donde los usuarios al iniciar sesión obtienen escritorios virtuales con sus aplicaciones y configuraciones, y después al cerrar la sesión, los escritorios virtuales pueden ser destruidos. Si el escritorio virtual de un usuario se ve comprometido, el escritorio puede destruirse o aislarse para fines forenses.

Administración sencilla

El mantenimiento, la aplicación de parches y la actualización de escritorios o aplicaciones para corregir las vulnerabilidades, requiere mucho tiempo del personal de TI. Con JMP, TI puede usar una imagen base para cientos o incluso miles de puntos finales, esto no solo ahorra tiempo y recursos a las organizaciones, también hace que la seguridad de la empresa sea mucho más factible.

Control de acceso al contenido

Tener el control de acceso adecuado a la joya de l corona en una organización, la información, evita tanto los ataques provenientes del exterior como accesos internos malintencionados. Con políticas inteligentes, se puede permitir el acceso solo a ciertas funciones estando dentro de la red privada, y restringiéndolo cuando un usuario ha iniciado sesión desde una dirección IP fuera de la red.

Para más detalles sobre cómo la virtualización de escritorio y aplicaciones puede ayudar a proteger su organización, le invitamos a ponerse en contacto con nosotros.

Fuente: https://blogs.vmware.com/euc/2017/11/cyberattack-risk-mitigation.html

Tesorería y TI

2017-11-01T13:02:37-06:00noviembre 1, 2017|Internet, Seguridad|

De acuerdo con información incluida en una publicación del sitio PwC México, próximamente la tesorería estará saturada de temas relacionados con las Tecnologías de la Información y Comunicaciones, así como con todo lo relacionado a las mejores prácticas.

En los últimos años, la transición a un ambiente virtual de las actividades de tesorería ha sido evidente en numerosos frentes. Así lo revela una encuesta realizada por la propia PricewaterhouseCoopers, la cual resalta el papel y responsabilidad que actualmente tienen los tesoreros al manejar los riesgos a los que está expuesta la organización. El éxito y la efectividad de la tesorería de hoy en día dependen de cómo opera en el mundo virtual.

La encuesta también puntualiza la rapidez con la que los negocios deben operar ante los cambios, y cómo la transición a lo virtual posiblemente afecta más las tareas de tesorería que las de otros departamentos.

Como usuarios de la banca hemos sido espectadores y partícipes de la evolución digital, la cual involucra una mayor eficiencia de la tarea de tesorería, la posibilidad de realizar y recibir pagos a través de la web, el uso de las múltiples plataformas electrónicas y el acceso a nuestras cuentas desde cualquier lugar. Pero todos estos avances conllevan desafíos. En particular, la tesorería se enfrenta a retos como el levantamiento de fondos, volatilidad del mercado cambiario, la incertidumbre que rodea el precio de los commodities y las ciberamenazas.

Estas últimas debieran ser prioridad dentro de las empresas, desafortunadamente, no siempre los son. Para garantizar la ciberseguridad interna y externa de sus redes, las organizaciones deben adoptar un proceso de alta eficiencia y políticas de tesorería alineadas a la estrategia de los accionistas y al gobierno corporativo de la entidad.

El mundo de los negocios ya no puede separarse del factor tecnológico, viéndose obligado a innovar y evolucionar a un ritmo vertiginoso. Esto, inevitablemente, afecta las actividades y la forma de manejar la tesorería.

De acuerdo con la publicación de PwC, las compañías debieran aspirar a virtualizar sus departamentos de tesorería al aplicar estrategias que ya han funcionado en países europeos, como lo son:

  • Convertir el área de tesorería en un área con información fundamental para la creación de estrategias financieras y toma de decisiones.
  • Involucrar a las áreas y generar una estrecha relación entre las personas encargadas de tesorería con aquellas que llevan asuntos de planeación financiera y control presupuestal.
  • Centralizar o regionalizar los departamentos de tesorería.
  • Implementar conectividades directas para evitar que la información viaje en la web y pueda ser atacada.

Todas estas mejoras son vitales para hacer el proceso de evolución y migración de la actividad de tesorería mucho más amigable, además de reportar una mejor fusión en los temas de innovación tecnológica, un desarrollo de la valoración de los servicios financieros y una mejoría en las relaciones bancarias organizacionales.

En definitiva, los tesoreros deben aprovechar la oportunidad que les brinda esta reorganización. En un futuro, ellos deberán no solo dominar los temas tradicionales de tesorería, sino también estar al tanto de consultoría de negocios, gestión de proyectos, ciberseguridad y los acontecimientos de FinTech.

También es importante que los tesoreros entiendan cómo involucrar y orquestar a las personas en diferentes ubicaciones y funciones del negocio que estén fuera de su cadena de mando. La tesorería es un departamento vital para aprovechar al completo el proceso de virtualización en cuanto a adaptabilidad, flexibilidad y adquisición de talento.

Fuente  http://blog.pwc.mx/virtualizar-la-tesoreria-un-paso-para-enfrentar-el-futuro/

 

Cómo protegerse frente al Ransomware

2017-10-06T10:08:58-05:00octubre 6, 2017|Internet, Seguridad|

La palabra ransomware evoca imágenes de datos pérdidos, sistemas bloqueados y organizaciones enteras paralizadas, le ha ocurrido a hospitales, empresas, agencias gubernamentales, entre muchos otros, es una amenaza que no deja de crecer.

Los registros de Kaspersky Lab indican un incremento del 48.3% en el número de usuarios afectados por ransomware desde 2015. Se trata de un mercado en crecimiento para los cibercriminales que no muestra signos de ralentización. Los atacantes utilizan al ransomware para hacerse con el control del equipo de una víctima de distintas formas: cifran los archivos, bloquean la pantalla y exigen un pago, o cambian el registro de arranque maestro para interrumpir el proceso normal de inicio. Una vez que tienen el control del equipo, los cibercriminales piden un rescate a la víctima en bitcoins para recuperar su información, muchas víctimas pagan para conseguir la clave de descifrado sin ninguna garantía de que realmente obtendrán acceso a sus archivos.

Existe una mejor manera de proteger a su empresa u organización: con la solución de seguridad de varios niveles de Kaspersky Lab se obtiene protección contra ransomware tanto de sus estaciones de trabajo como de servidores.

Los productos de Kaspersky Lab ofrecen protección desde diversos ángulos, gracias a una amplia gama de sofisticadas tecnologías que permiten distinguir patrones sospechosos, bloquear actividades maliciosas y revertir acciones perjudiciales, inlcuido el cifrado de archivos.

Como la mayoría del ransomware llega a través del correo electrónico, la tecnología antiphishing de Kaspersky Lab proporciona una primera y vital línea de defensa, mediante el siguiente enfoque: comprobar la información, comparándola con una base datos local antiphishing en el dispositivo y a continuación, comprobar las direcciones URL en la amplia base de datos de sitios de phishing con la que cuenta Kaspersky Lab, que se actualiza contínuamente mediante datos recopilados a través de Kaspersky Security Network. Por último, el análisis eurístico examina docenas de síntomas de phishing y los clasifica en función de los métodos conocidos que son utilizados por los atacantes.

La tecnología System Watcher de Kaspersky Lab se integra en el núcleo de la protección contra ransomware, supervisa las aplicaciones que se ejecutan en los equipos y se basa en firmas de flujo de comportamiento, que examinan una secuencia de acciones, si se detecta una acción maliciosa, el malware se bloquea y los cambios se revierten. En el nivel del servidor, la amenaza a la que se enfrenta es muy distinta, si bien el servidor en si podría no estar infectado, el malware ejecutado en un equipo infectado podría tomar como rehén los datos del servidor, la tecnología anti-cifrado supervisa los datos almacenados en los servidores en busca de signos de información dañada y permite que la empresa esté protegida contra los efectos dañinos del ransomware.

Proporcione a su empresa la capacidad para protegerse contra los ciberataques avanzados con las soluciones de Kaspersky Lab. Le invitamos a ponerse en contacto con nosotros para proveerle más información  respecto al apoyo que Adaptix Networks puede brindar a su empresa en software de seguridad y las herramientas corporativas de Kaspersky Lab.

(Video https://www.youtube.com/watch?v=c0JtVCqRCg8)

Origen de la brecha de seguridad en Equifax

2017-10-04T10:57:43-05:00octubre 4, 2017|Internet, Seguridad|

De acuerdo con información del sitio TechCrunch, altos ejecutivos de Equifax están siendo investigados por la mayor brecha de datos en la historia de Estados Unidos que expuso los números de seguridad social, licencias de conducir y más información sensible de 143 millones de estadounidenses a principios de verano. De acuerdo con el testimonio del ex director ejecutivo Richard Smith, el ataque fue realizado mediante la explotación de una vulnerabilidad en Apache Strust.

Sin embargo, el parche para esa vulnerabilidad había estado disponible meses antes de que fuera expuesta la información. En una transmisión en vivo ante el Subcomité de Comercio Digital y Protección al Consumidor, Smith testificó que la vulnerabilidad de Struts había sido discutida cuando fue revelada por el US-CERT el 8 de marzo. Indicó que en sus inicios con Equifax hace 12 años, en realidad, no contaban con personal para ciberseguridad, que fue en los últimos tres años cuando la compañía realizó una inversión de 250 millones de dólares para ello, y actualmente cuenta con un equipo de 225 personas.

Sin embargo, Smith dio una interesante explicación de cómo la situación se salió de control para este equipo de 225 personas: “Se debió a un error humano, el responsable en la organización de comunicar la aplicación del parche, simplemente no lo hizo”.

La idea de que una sola persona no hizo su trabajo y como resultado de ello se originó la mayor brecha de seguridad en EE.UU. es una afirmación sorprendente y muestra la falta primordial de buenas prácticas en seguridad. Según el testimonio escrito de Smith, Equifax envió un correo electrónico interno el 9 de marzo para que se efectuara la actualización de Apache Struts en las siguientes 48 horas. Sin embargo, el sistema no identificó ninguna vulnerabilidad, unos días más tarde, el departamento de TI realizó un análisis pero tampoco reconoció la vulnerabilidad. Aparentemente, la persona responsable debió comunicar que ya había un parche disponible para una vulnerabilidad descubierta.

Los hackers, que rápidamente reconocieron la vulnerabilidad, comenzaron a acceder a la información desde el 13 de marzo y continuaron haciéndolo durante meses.

Smith dimitió como CEO de Equifax la semana pasada, poco después de que el jefe de seguridad y el jefe de información también salieran de la compañía. Nueva York ha emitido una citación respecto a la violación masiva y la ciudad de San Francisco ha abierto una demanda en nombre de los 15 millones de californianos afectados.

En el último mes se dieron a conocer otras brechas de seguridad en grandes empresas como Deloitte y la US Securities and Exchange Commission (SEC).

También puede interesarle:

Deloitte víctima de ciberataque.

Costo de un ciberataque.

 

Redefiniendo los Firewalls de Nueva Generación

2017-09-29T10:20:07-05:00septiembre 29, 2017|Internet, Seguridad|

Cuando se desarrollaron los primeros firewalls, su función principal era actuar como centinelas que monitoreaban el tráfico de datos. Estos dispositivos examinaban paquetes, direcciones de red y los puertos para determinar si se debían permitir o bloquear los datos. Una buena analogía de esto es el transporte aéreo. En las primeras incursiones del firewall, los datos se verificaban simplemente para ver si contaban con un ‘boleto’, y si sus credenciales estaban en orden, se les permitía abordar el avión.

Entonces el tráfico de las aplicaciones se disparó, y los firewalls de primera generación no pudieron mantener el ritmo. Esto se debe a que los delincuentes fueron capaces de ocultar malware dentro del tráfico de aplicaciones, donde el cortafuegos no podía verlo. Por lo que la segunda generación, o los ‘Next Generation Firewalls’ nacieron. Esta nueva herramienta podría ver en la aplicación con el fin de encontrar y bloquear malware. Piense en ello como la inclusión de una máquina de rayos X al proceso de embarque en la línea aérea. Usted puede tener un boleto, pero si existe algo peligroso en su equipaje se les negará el acceso. Con el tiempo, otras tecnologías de inspección compatibles se agregaron al proceso, como IPS, Control de Aplicaciones y Anti-Malware. Piense en éstos como el equivalente a los escáneres corporales y a la búsqueda de restos de fabricación de bombas. Desafortunadamente, a medida que las inspecciones se hacían más frecuentes, la pasarela de seguridad se convirtió en un serio cuello de botella.

Actualmente las cosas son más complicadas que nunca. Casi el 60% del tráfico de una empresa está cifrado, tambén los ciberataques están desplegando cada vez más malware cifrado. Como resultado, el Gartner Enterprise Firewall MQ 2017 predice que casi el 50% de los clientes empresariales pronto requerirán capacidades de inspección SSL, en comparación con sólo el 10% actual. Además, los ciberataques multi-vectoriales están siendo diseñados para eludir la seguridad perimetral tradicional y evadir la detección convencional.

El descifrado de información, la inspección profunda de paquetes y la correlación de amenazas son procesos extremadamente demandantes para el CPU y lo suficientemente notorios para doblegar incluso a los Next Generation Firewalls (NGFW).

La realidad es que casi todos los dispositivos y plataformas de firewall actualmente disponibles, no están a la altura de la tarea. Es parte de la razón por la cual, aunque las organizaciones gastan miles de millones de dólares en seguridad, la prevalencia y severidad del crimen cibernético aún no muestra signos de desaceleración.

La próxima generación de firewalls debe incluir tres cosas:

1. Potencia y rendimiento

Existen dos verdades innegables sobre las redes: el volumen de datos seguirá aumentando, y que la escala y alcance de las redes continuará ampliándose. Las herramientas de seguridad deben permitir este crecimiento sin comprometer la protección de datos y los recursos. Desafortunadamente, la mayoría de los firewalls tienen dos características fatales:

  • Son una colección de diferentes tecnologías, estas herramientas suelen tener interfaces de administración separadas, lo que dificulta la detección de eventos. Por ello, la mayoría de los dispositivos de seguridad se convierten rápidamente en un cuello de botella.
  • Se construyen utilizando los CPU y otros componentes de diferentes plataformas. Si los automóviles se construyeran de la misma manera que la mayoría de los firewalls, costaría un millón de dólares, obtendría cinco millas por galón de gasolina y no manejaría a más de 20 millas por hora.

A esto se debe que la mayoría de los cortafuegos colapsen cuando se encuentran con entornos de tráfico que requieren capas de inspección simultánea, descifrado del tráfico SSL y un volumen de tráfico de red en aumento.

Se necesita una nueva generación de firewalls diseñados para los requisitos actuales de rendimiento de las redes.

2. Visibilidad más allá de la aplicación

Ya no basta con inspeccionar el tráfico, para captar muchas de las amenazas más sofisticadas de hoy en día, la inteligencia obtenida de tales inspecciones debe compartirse en tiempo real con el resto de la red. Desafortunadamente, la mayoría de las soluciones NGFW de hoy en día funcionan de manera aislada. Muchos ni siquiera comparten información entre las diferentes herramientas de seguridad cargadas en una sola plataforma, ​​mucho menos con otras herramientas de seguridad en la red distribuida.

La integración entre plataformas y la correlación directa de información sobre las amenazas son esenciales para asegurar las redes. Esa funcionalidad necesita escalar a través de las redes altamente distribuidas, que incluyen dominios físicos y virtuales, IoT y entornoscloud que pueden incluir múltiples proveedores IaaS y SaaS.

Debido a que los ataques pueden tener origen desde cualquier lugar, dentro o fuera de los perímetros de la red, las soluciones NGFW actuales requieren capacidades avanzadas de protección contra amenazas, como sandboxing e inteligencia de amenazas.

3. Automatización, Inspección Profunda y AI

El rendimiento y la correlación entre las redes distribuidas no basta. Los ataques pueden comenzar a robar datos o secuestrar recursos en cuestión de minutos, la seguridad debe ser capaz de responder a las amenazas detectadas a velocidades digitales.

La automatización en seguridad permite a las redes responder de manera coordinada ante una amenaza detectada. Los dispositivos afectados y el malware deben detectarse y aislarse, esto requiere una inspección profunda en tiempo real. En lugar de utilizar las herramientas de sandbox como dispositivos o servicios independientes, deben ser un componente básico de los NGFW actuales.

Es necesario compartir la inteligencia de amenazas para explorar la red en la búsqueda de más incidencias del mismo ataque, con la finalidad de prevenir brechas similares. El análisis forense debe realizarse para determinar cómo se produjo una violación, qué recursos se comprometieron y cómo apuntalar las defensas para evitar que suceda de nuevo.

En el caso de Fortinet, se continúa redefiniendo el despliegue de NGFW basados en la visión de proporcionar capacidades amplias, automatizadas y poderosas.

Los procesadores de seguridad patentados de Fortinet y el software de seguridad altamente optimizado proporcionan el mayor nivel de protección contra amenazas y rendimiento de inspección SSL, independientemente de si se implementan en la red, en el núcleo o en los segmentos. Con la versión 5.6 de su sistema operativo FortiOS, los clientes pueden aprovechar una vista automatizada de sus ecosistemas de red distribuidos. Fortinet Security Fabric brinda visibilidad granular en aplicaciones, incluidas aplicaciones SaaS, lo cual es fundamental para las empresas que hacen uso del cómputo en la Nube.

En Adaptix Networks destacamos la importancia de implementar soluciones de seguridad integrales para disminuir de manera importante el riesgo de sufrir algún ataque. Le invitamos a ponerse en contacto con nosotros para proveerle más información respecto a la implementación de nuestras soluciones Fortinet, así como los casos de éxito con nuestros clientes.

 

Consultar fuente en https://blog.fortinet.com/2017/09/28/redefining-next-generation-firewalls

 

Deloitte víctima de ciberataque

2017-09-27T10:30:39-05:00septiembre 27, 2017|Seguridad|

En una publicación del periódico británico The Guardian se ha revelado que la empresa Deloitte, ha sido víctima de un ciberataque que comprometió correos electrónicos confidenciales e información de algunos de sus clientes.

Deloitte ofrece servicios de auditoría, consultoría tributaria y asesoría en ciberseguridad a bancos, compañías multinacionales y agencias gubernamentales. La empresa está registrada en Londres y tiene su sede mundial en Nueva York.

Se tiene entendido que Deloitte descubrió el ataque en marzo de este año, pero se cree que los atacantes pudieron tener acceso a sus sistemas desde Octubre o Noviembre de 2016.

El atacante comprometió el servidor de correo electrónico de la empresa a través de una cuenta de administrador con facultades de acceso a todo el sistema. Para acceder a la cuenta sólo habría sido necesario digitar la contraseña; es decir, Deloitte no había activado la autenticación de factor doble para su propio sistema.

Además de los correos electrónicos, se cree que los hackers tuvieron acceso a nombres de usuario, contraseñas, direcciones IP, diagramas sobre rubro comercial de los afectados e incluso información sanitaria. Algunos correos electrónicos incluían archivos adjuntos con información sensible.

Aún no se establece si el ataque fue perpetrado por un agente solitario, rivales de negocios, hackers patrocinados por algún estado o cualquier otro escenario.

Un portavoz de la empresa informó: “En respuesta a un incidente cibernético, Deloitte ha implementado su protocolo de seguridad integral y comenzó una revisión intensiva y exhaustiva incluyendo la movilización de un equipo de expertos en seguridad cibernética y confidencialidad dentro y fuera de Deloitte“.

The Guardian observa que entre los servicios de consultoría ofrecidos por Deloitte figuran recomendaciones sobre cómo las empresas pueden salvaguardar su información en la eventualidad de ataques cibernéticos avanzados.

El correo electrónico de Deloitte habría sido operado en la Nube de Microsoft, Azure, aunque nada hace suponer que los hackers hayan aprovechado eventuales vulnerabilidades en la infraestructura de Azure para perpetrar su ataque.

Deloitte es uno de los cuatro grandes actores globales en servicios de auditoría y contabilidad, junto a Ernst & Young, KPMG, y PricewaterhouseCoopers. El ataque constituye la tercera brecha a gran escala que ocurre este mes, y que afecta a una agencia financiera. Anteriormente, hackers intervinieron los sistemas de Equifax y de US Securities and Exchange Commission (SEC).

Las empresas hoy más que nunca deberían tener presente que debido a la constante evolución en las técnicas utilizadas por los atacantes, cada vez es más difícil mantener segura la información de la organización, sin importar el tamaño de ésta. Al ser el activo más importante, cuando la información se ve comprometida, el incidente se convierte en algo realmente difícil de solucionar. La clave para reducir el impacto es adoptar un enfoque integral en seguridad TI, en lugar de depender solo de la tecnología de detección.

Otro punto importante a considerar, como menciona Leslie Gaines-Ross, jefa de estrategias de reputación en Weber Shandwick:

“Puede tomar décadas a una empresa construir su reputación, pero cuando un ciberataque de este tipo tiene lugar, la reputación simplemente desaparecerá”.

 

También puede interesarle:

Costo de un ciberataque.

El verdadero valor de los datos.

 

Ransomware en América Latina

2017-09-26T12:08:12-05:00septiembre 26, 2017|Seguridad|

Los ataques por ransomware en América Latina se han incrementado anualmente alrededor de un 30% entre 2014 y 2016, de acuerdo con información revelada por Kaspersky Lab en la Séptima Cumbre Latinoamericana de Analistas de Seguridad.

Brasil encabeza la lista de los países latinoamericanos con mayor número de secuestros de datos con el 54.91% de los ataques, seguido por México con el 23.40% y Colombia con 5%.

Según los datos de Kaspersky Lab, los ataques de ransomware son dirigidos principalmente al sector salud, además de pequeñas y medianas empresas. La mayoría de estos ataques se realizan a través de acceso remoto, aprovechando contraseñas débiles o servicios configurados de forma incorrecta.

“La amenaza con mayor impacto en América Latina entre 2016 y 2017 ha sido, sin duda, el secuestro de datos. El incremento en la cantidad de ataques dirigidos ha sido notorio y no solo en la región, sino también en el resto del mundo, se ha convertido en una epidemia global que ha causado pérdidas millonarias y daños irreparables en distintas industrias y que, por ahora, no parece detenerse”, afirma Santiago Pontiroli, analista de seguridad para Kaspersky Lab en América Latina.

Algunos ejemplos emblemáticos de estos ciberataques son Petya o PetrWrap, HDD Cryptor, y el ya reconocido WannaCry que infectó más de 200 mil equipos alrededor del mundo, 98% de los cuales utilizaban sistemas Windows 7. En América Latina, la mayor propagación de WannaCry se dio en México y Brasil, seguido por Chile, Ecuador y Colombia.

“El uso de exploits como EternalBlue y backdoors como DoublePulsar ayudaron a la propagación automática de WannaCry en redes internas, lo que permitió a los cibercriminales recaudar cerca de $100 mil dólares, pero cuyos daños superaron con creces esa cifra al interior de las empresas afectadas”, explica Pontiroli.

Algo parecido ocurrió con Schroedinger’s Pet(ya) un ransomware con fines de sabotaje que afectó principalmente a Ucrania, Rusia y otros países de Europa Oriental, y que fue distribuido a través de un software legítimo comprometido, así como sitios de noticias ucranianos. Este malware destruyó archivos sin posibilidad de recuperación y fue propagado dentro de redes internas mediante exploits como EternalBlue y EternalRomance.

En Adaptix Networks recomendamos las soluciones de Kaspersky Lab para la protección antimalware. Le invitamos a ponerse en contacto con nosotros para proveerle más información al respecto, así como los casos de éxito con nuestros clientes.

 

Go to Top