miércoles, 31 de julio de 2013

#Épsilondc, ¿Existe en la Nube ya una Oligarquía??

Todo esto es un buen debate y  de que el Cloud Computing abrirá paso al patrón  en etapas anteriores de la historia de la computación: unos cuantos proveedores grandes dominarán la nueva era, justo como hicieron sus antecesores. La salvación es que quizá sea un nuevo grupo de amos.
La Nube es diferente de las etapas anteriores de la historia del cómputo. Por una parte, está dominada más de lo que podemos apreciar por el uso de código abierto y materias primas de nivel básico económicas.
Segundo, la computación en la Nube no es una cosa, aunque seguimos haciendo referencia a ella como una sola entidad. Lo esencial acerca de la Nube es que es una nueva manera de distribuir ciclos de cómputo a usuarios finales que aprovechan el equipo de red y básico. Si la Nube fuese una cosa, usted podría preguntarse qué constituye un centro de datos en la Nube. Y al observarlos podrá concluir que no hay un anteproyecto. Simplemente son los centros de datos más recientes que podemos construir y que aprovechan servidores básicos y operaciones de bajo costo.
Estamos de acuerdo en que Amazon Web Services (AWS) disfruta el estatus de haber sido el primero en actuar. Tiene una compañía matriz audaz y agresiva en Amazon.com y fondos de capital que emanan del flujo de efectivo de la que se está convirtiendo en la firma detallista más grande del mundo. Microsoft, con sus monopolios de Windows y Office en las computadoras de escritorio, es también un gigante plenamente comprometido a ofrecer computación en la Nube. IBM, que ha sido un actor dominante en el pasado, incursiona en el mercado de manera más persuasiva con la adición de SoftLayer. Y Google, con su dominio en buscadores, se convirtió en un gigante potencial del Cloud Computing cuando anuncióGoogle Compute Engine.
“Con la llegada de grandes actores a la operación online con tipos de servicios similares, es posible que estemos comenzando a ver una consolidación del mercado primario del Cloud Computing en las manos de unos cuantos proveedores poderosos”, escribió McKendrick en Forbes. “Esto puede ser el anuncio de un oligopolio de IT”, concluyó, citando a Rogers (de 451 Research).
Marko escribió: “Aunque la industria de los servicios en la Nube aún es joven, los frutos que cuelgan más bajo ya han sido arrancados. Los nuevos participantes que intentan competir en precio o en servicios personalizados para mercados específicos aspiran cada vez a ocupar limbos más altos, y por consiguiente cada vez más extendidos… Desde esta perspectiva, los Goliats de la Nube con sus plataformas enriquecidas y en continua expansión aporrean a los Davides suspendidos de una roca implorando capacidad computacional pura”.
Éstas son buenas observaciones, si bien prematuras. No tenemos una oligarquía en la Nube. Ni siquiera estamos cerca de una. Google no tuvo un producto de uso general para la Nube sino hasta junio de 2012 y aún no veo claro que tenga la masa crítica para competir con Amazon. IBM estaba tan rezagada que tuvo que comprar su boleto de entrada con SoftLayer, adquisición que se concretó hace una semana y que aún no significa que IBM sea el siguiente miembro de la oligarquía. Microsoft es un actor de la Nube, ciertamente por su base de clientes existente, pero debe cambiar su histrionismo por código abierto. ¿Vislumbra a desarrolladores de aplicaciones de código abierto yendo en tropel hacia Microsoft Azure? Bueno, el futuro oligarca de la Nube necesita desarrolladores de aplicaciones de código abierto, muchos de ellos, para poder llamarla hogar.
Estoy más intrigado por Heroku, Engine Yard, Joyent, Open Shift de Red Hat, Cloud Foundry de VMware y nuevos actores como DigitalOcean, que pasaron de 100 a 7,000 servidores entre diciembre y junio. ¿Cómo pudieron los oligarcas permitirles que se salieran con la suya?
Ya para terminar de hablar de esto, acudí a Joe Weinman, autor de Cloudonomics y vicepresidente senior de Telx, quien también ha leído el reporte de Rogers de 451 Research y llega a una conclusión más mezclada. Su visión es que la economía de los servicios básicos de la Nube creará unos cuantos proveedores grandes que competirán en economías de escala. “Pero eso no significa que no habrá una larga fila de otros proveedores compitiendo en otros terrenos”, añade. Uno sería la proximidad. Un servicio de videoconferencias necesita un centro de datos cercano a sus clientes para reducir las latencias inherentes a la distancia. De la misma forma, los proveedores de juegos o videos interactivos buscarán formas de distribuir sus mercancías cerca de los clientes.
Weinman citó una analogía: “¿Existirán las cadenas hoteleras Marriott, Starwood e International en el futuro? Ciertamente. Pero también los B&B”. Si lee atentamente sus palabras, Rogers dice algo similar, que surgirá un sistema equilibrado con una mezcla de proveedores grandes y pequeños.
En mi opinión, los líderes de hoy pueden quedar presos en la arquitectura de la Nube que tan agresivamente han construido. Es posible que un nuevo actor, que aproveche adelantos técnicos y los beneficios de la Ley de Moore, pueda flanquearlos más rápido de lo que se puedan recuperar.
Calculo convencido que algún día se formará una oligarquía en los servicios de Nube. El problema es que sólo veo un miembro seguro en este momento. Ésta es una industria joven, donde se siguen probando muchas opciones. Como observó Rogers al final de su análisis, “el problema con predecir el futuro es que nadie sabe a ciencia cierta qué sucederá a continuación”.

martes, 30 de julio de 2013

#Épsilondc, ¿Cómo hacer verde el cableado estructurado?

Los cables corren cargados de energía, generando calor, y este puede llegar a elevarse a tal grado que presente un riesgo de seguridad.Partiendo de ello, la charola tipo malla presenta beneficios substanciales. Ésta acarrea todos los cables necesarios, desde los más básicos, el de alta velocidad o incluso el de fibra óptica, hebra de vidrio o silicio fundido, que conduce la luz caracterizada por su fragilidad.
La charola recorre el perímetro requerido, brindando una flexibilidad en la instalación, desencadenando una reducción significativa de tiempo en mano de obra. Tiene flexibilidad total en espacios reducidos y de difícil acceso. El hecho de que sea completamente ventilada, presta seguridad pues disipa el calor. No requiere accesorios adicionales para sostener o fijar la charola y, siendo ésta de rápido acoplamiento, se reafirma el beneficio de reducir costos de manera importante.
Centro de Conectividad ofrece un acercamiento hacia la optimización de procesos y de excelencia operativa. Características que toman ventaja sobre el estilo de cableado tradicional, en el cual la ventilación por aire acondicionado es obligada para controlar la temperatura, que incrementa el uso de electricidad.

lunes, 29 de julio de 2013

#Épsilondc, Ayude a su compañía a protegerla de ataques cibernéticos

Los propietarios de las empresas están cada vez más preocupados por la proliferación de tecnologías en la oficina. Innovaciones como BYOD, la nube, el acceso global y las redes sociales tienen a muchos Directores de Seguridad de la Información (CISO, por sus siglas en inglés) dando vueltas a la idea de cómo
asegurar eficazmente sus datos y proteger la valiosa propiedad intelectual.
En este cambiante panorama de amenazas, las empresas y gobiernos están constantemente luchando contra la delincuencia cibernética organizada y el
hacktivismo. Con programas maliciosos, tales como Flame, Stuxnet y Shamoon en el arsenal de los ciberdelincuentes de hoy, los CISO deben estar un paso adelante del juego y prepararse apropiadamente para los ataques.
Los riesgos y amenazas que enfrenta su organización son muy reales y pueden causar consecuencias si decide tomar un enfoque más reactivo hacia la
seguridad. Manténgase activo, informando a la Junta Directiva que la seguridad puede ser un importante factor diferenciador desde el punto de vista
financiero. Un ejemplo podría ser el de involucrarse en los productos que produce su compañía. A diferencia de otros grupos de TI, la seguridad debe enfocarse en las amenazas. Es necesario incorporar este pensamiento en todos los procesos, incluyendo las estrategias y las comunicaciones. El aumento de la seguridad puede equipararse con el aumento de los beneficios y la conservación de los datos de la
empresa. Dicho esto, no se apresure en la etapa de planeación de la estrategia de seguridad de TI. La forma más lenta es la manera más rápida cuando se trata de una arquitectura efectiva y metódica para la seguridad de TI.
Comprenda el papel de la seguridad. En el entorno actual la tecnología nos consume. Normalmente nos olvidamos de las personas y los procesos, que son
realmente lo que hace que nuestras empresas sean exitosas. Como líderes, tenemos que vender ideas. La tecnología por sí sola es apenas un vendaje que
tiene que ir de la mano con otros elementos. Si desea lograr la seguridad completa de TI, debe integrar procesos y gobernabilidad para asegurar el éxito.
Además, es imprescindible la capacitación. Educar hacia arriba, hacia abajo y a través. Todos sus empleados, desde la Junta Directiva, hasta los de servicio al cliente, deben tener una mutua comprensión de la misión y las estrategias de su departamento. Una forma de cultivar esta comprensión es violando
la seguridad de su propia organización. Esto pondrá a prueba los conocimientos de sus empleados acerca de las amenazas actuales y cómo detectarlas y le dará una buena idea de cómo responden ellos ante la situación. Este es también un gran tema para compartir con la organización. Otro desafío consiste en poner a prueba su servicio de mesa de ayuda para identificar cómo pueden robarse una contraseña durante el proceso de reinicio del sistema. Este ejercicio le permitirá identificar amenazas potenciales y casos de abuso. También puede educar al grupo sobre las
amenazas externas. La mayoría de los empleados están interesados en esto y podrían incluso considerar divertido actuar como “los malos” de vez en cuando.
Establezca gobernabilidad. Por definición, la gobernabilidad es la capacidad de esbozar expectativas,
garantizar esfuerzos y validar el desempeño. Para lograrlo, se requiere crear una misión de gran alcance entorno a sus iniciativas de seguridad de TI dentro
de su organización. De esta manera, puede definirse claramente a quién se reporta en seguridad, junto con sus funciones y responsabilidades. Asegurar la alineación operativa en todos los departamentos ayudará a involucrar a los empleados de su organización, haciéndolos más conscientes de la arquitectura de seguridad.

viernes, 26 de julio de 2013

#Épsilondc,¿Sabes que Tier es el más propenso a los paros?

Durante la actividad de mantenimiento cuando los componentes de la capacidad redundante o una ruta de distribución esten apagados, el equipo de computación está expuesto a un mayor riesgo de interrupción en el caso de una falla en el resto de la ruta. Esta configuración de mantenimiento no frustra la calificación de Tier alcanzado en las operaciones normales. 
Tier I
Típicamente sufren de dos distintos paros de 12 horas por año para mantenimiento o reparaciones. Además, sufren de 1.2 fallas promedio de equipos o distribución.
Tier II
Usualmente programan tres ventanas de mantenimiento cada dos años y sufren de un paro no-planificado por año.
Tier III
Por ser Mantenible de Manera Concurrente no requieren de paros para mantenimiento y permitan un programa de mantenimiento agresivo, mejorando el desempeño total de los equipos. Un paro promedio de 4 horas cada 2.5 años.
Tier IV
Provienen una infraestructura robusta, Tolerante a Fallas cual reduce eventos a uno de 4 horas cada 5 años.
Presentado por Osmo Kuusisto, RCDD

jueves, 25 de julio de 2013

#Épsilondc, ¿El realizar un mantenimiento preventivo a su Data Center puede evitar los impactos operativos?

El Centro de Datos es susceptible a la perturbación de actividades planificadas así como no-planificadas. Errores de operación (humanos) de los componentes de la infraestructura del sitio causarán una disrupción en él. La infraestructura del sitio debe estar completamente apagada cada año para realizar con seguridad mantenimiento preventivo y reparaciones necesarias. Situaciones de urgencia pueden requerir paros más frecuentes. La falta de realizar mantenimiento aumenta significativamente el riesgo de interrupción no planificada, así como la gravedad de la falla consecuente.
Una interrupción imprevista o falla de cualquier sistema de capacidad tendrá un impacto al equipo informático.
 El llevar a cabo un mantenimiento planeado de la infraestructura del sitio se puede realizar mediante el uso de los componentes de capacidad y rutas de distribución redundantes para trabajar con seguridad en el resto del equipo.
 Durante las actividades de mantenimiento, el riesgo de interrupción puede ser elevado. (Esta condición de mantenimiento no derrota a la calificación de Tier alcanzado en las operaciones normales).

miércoles, 24 de julio de 2013

#Épsilondc, ¿Sabes que importancia tienen las TI en la eficiencia energetica del #DataCenter?

La eficiencia energética de las TI es cada vez más importante a medida que crecen las demandas de computación.
Hasta hace poco, reducir el consumo de energía en el data center implicaba poner el foco principalmente en las facilities. Por una parte, porque la refrigeración era una de las dimensiones de mayor consumo. Por otra, porque la ausencia de sistemas que ofrecieran información en tiempo real, tal como hace hoy DCIM, suponía una falta de visibilidad y capacidad de control sobre el consumo energético de cada componente.
Pero de un tiempo a esta parte, las TI se han convertido en un quebradero de cabeza para los operadores de data center que persiguen la eficiencia como objetivo. Servidores, almacenamiento y, en menor medida, networking han ido incrementando su consumo para responder a las demandas actuales de computación, haciéndose así altamente ineficientes.
Alertadas por esta situación, instituciones y compañías tecnológicas se han puesto manos a la obra para reducir el uso de energía de las TI, a través de servidores de cada vez menor consumo, estrategias inteligentes de optimización y tecnologías que mejoran la eficiencia. La ecuación entre facilities y TI ha cambiado y la balanza de la eficiencia hoy pesa más del lado de la tecnología.
Según datos de Amazon que manejan desde Calxeda –compañía que ofrece tecnología System on Chip basada en la arquitectura ARM–, los servidores suponen hasta un 42% de los costes del data center. Esta cifra se debe principalmente a una razón: el sobredimensionamiento de las TI.
“En ocasiones recurrimos a soluciones que están sobredimensionadas o que no están adecuadas a la carga de trabajo. Ni todos los clientes necesitan lo mismo, ni todas las cargas de trabajo son iguales, por lo que debe dimensionarse desde el principio de forma correcta”, explica Óscar Gómez, enterprise field marketing manager de Dell España.
La solución a este problema pasa necesariamente por la heterogeneidad. Recurrir a las últimas y más potentes máquinas del mercado, con la máxima computación posible, no es siempre la opción más inteligente. Las aplicaciones que se ejecutan en el data center no son homogéneas y pueden tener picos y valles de demanda computacional.
Los avances en software son también fundamentales. Intel, por ejemplo, cuenta con la tecnología Intel Node Manager que, combinada con una consola, monitorea e informa del consumo y temperatura de los procesadores Intel Xeon, para determinar dónde y cuándo se necesitan potencia y refrigeración adicionales. Por su parte, Dell dispone de la tecnología Fresh Air, que utiliza el aire exterior para apoyar los sistemas de refrigeración, permitiendo a los servidores trabajar a temperaturas de hasta 45º C. “Se crean flujos de aire a lo largo del diseño interno del servidor, para que la máquina trabaje óptimamente en entornos de temperaturas altas”, indica Gómez, de Dell.
Con la combinación de estas prácticas, las TI pueden contribuir significativamente al objetivo del data center hacia un PUE cada vez más bajo.

martes, 23 de julio de 2013

#Épsilondc, ¿Sabías que el agua es el medio más eficaz para transferir calor?Refrigeración por agua y aire

El agua es el medio más eficaz para transferir calor. Por esta razón cada vez se está utilizando más el agua para enfriar los equipos técnicos utilizados en las tecnologías de IT y médicas. Los conceptos de control basados en la demanda y opción de free-cooling garantizan que el consumo de energía sea bajo. Esto le permite recortar costes de funcionamiento y reducir la contaminación medioambiental.
Refrigeración por aire para exteriores Los enfriadores de refrigeración por aire chillers para la instalación en exteriores son sistemas clásicos de generación de agua fría. Las unidades se instalan en tejados o cerca del edificio. Los generadores de agua fría refrigerados por aire permiten el uso óptimo del aire exterior en las condiciones climáticas correspondientes.
Refrigeración por aire para interiores Las máquinas de refrigeración por aire para instalación en interiores son la elección si hay espacio en el exterior. El condensador y ventiladores en estos enfriadores están conectados con el aire exterior, o bien, directamente por medio de una rejilla de protección contra la intemperie o mediante un sistema de conductos. La ventaja de la instalación en interiores es la capacidad de hacer funcionar un sistema de refrigeración de agua sin glicol.

lunes, 22 de julio de 2013

#Épsilondc, Factores importantes en la Construcción de un Centro de Datos

(ICREA) es una asociación internacional que certifica a especialistas, ambientes y productos de Infraestructura de Tecnologías de Información (TI).
“La Norma ICREA se actualiza cada dos años. En el proceso participan diferentes personalidades, para congregar posibles cambios o mejoras a nivel tecnológico”, comentó el Ing. Gerardo Arce, en entrevista para Instalaciones, Revista de Ingeniería. “Actualmente, estamos presentando integraciones y consideraciones importantes en nuevas tecnologías de enfriamiento”, agregó.
Dentro de la norma, ¿cuáles han sido los cambios más significativos en soluciones de enfriamiento?
El enfriamiento es considerado perimetral dentro de la norma. Entre las soluciones de enfriamiento se encuentran: pasillos aislados, pasillos fríos, que son autocontenidos, pasillos calientes, etc.
Hemos incorporado a “ICREA-Std-131-2013” soluciones de enfriamiento perfectamente aplicables en espacios sin pisos falsos. Lo que quiero decir es que, en un Data Center, ya es posible la integración de soluciones con esta característica.
¿Qué consideraciones han tenido a propósito de eficiencia energética y sustentabilidad?
Seguimos una normatividad eléctrica. Estamos integrando diferentes tecnologías que hay en el mercado. Tecnologías con tendencias de alta densidad, para el rendimiento de soluciones en Centros de Datos.
Dentro de esta normatividad, nosotros tenemos parte a través de agremiados, de personas que participan en reuniones o congresos de revisión. De este modo, podemos contar con la versatilidad de integrar mejores prácticas y mantenernos actualizados, a diferencia de otras normas en el mundo. 
Desde su punto de vista, ¿qué prioridades deben establecerse cuando se diseña un Data Center?
En principio, debe tomarse en cuenta quién lo va a diseñar. Debe ser gente que tenga conocimiento, que esté capacitado, que cuente con experiencia, etc. 
La normatividad ICREA-Std-131-2013 es un libro de consulta, que se va a lanzar en EXPO DataCenter y Congreso Internacional de Infraestructura TI 2013 en la Ciudad de México. Este compendio es una referencia para nosotros como auditores, y sus páginas contienen importantes especificaciones, que favorecen la conformación y óptimo funcionamiento de un Centro de Datos.

viernes, 19 de julio de 2013

#Épsilondc, ¿Es un juego de tetris la Gestión del #DataCenter?

Hasta hace dos décadas, los ingenieros construían modelos de flujo de aire en bruto para averiguar cuál era la mejor manera de diseñar los equipos de TI. Tiempo después, el enfoque evolucionó, y comenzaron a utilizar simulación por ordenador para este tipo de modelado, lo que llevó a una innovación vertiginosa en el diseño de equipos electrónicos.
 Hoy en día la industria de centros de datos ha alcanzado el punto en el que sabemos lo suficiente sobre el flujo de aire y los equipos son lo suficientemente potentes como para llevar a cabo la misma revolución en el diseño de CPDs.
Como es de sobra sabido, el centro de datos actual aloja servidores, switches de red y dispositivos de almacenamiento, todo ello fabricado por una variedad de proveedores y con diferentes especificaciones. “Todos estos componentes cambian de forma impredecible”, dice Koomey.

Si un centro de datos está diseñado y construido con una cierta configuración “idealizada” en mente, en el momento en que el operador empiece a tomar decisiones sobre la ubicación del equipamiento que sean diferentes a esa configuración, la capacidad de potencia de la instalación se verá fragmentada, lo que resultará en capacidad infrautilizada, que es sinónimo de dinero mal utilizado.
Si, por ejemplo, un gerente de centro de datos coloca racks que están espaciados un poco más de lo previsto, el límite de capacidad de espacio y potencia de la instalación será mucho menor del límite para el que fue diseñado.
“La capacidad en el centro de datos es como un juego de Tetris”, dice Koomey. En el data center, sin embargo, los bloques con los que llenas el espacio no son todos idénticos, por lo que puedes terminar con lo que puede ser una gran cantidad de espacio vacío. “Puedes tener mal utilizada como una tercera parte del CAPEX del CPD”, añade.

Según Koomey, el modelado predictivo es realmente la única manera de maximizar el uso de la capacidad existente. Antes de mover un equipo o introducir uno nuevo en el entorno, un modelo generado por ordenador puede decirle al operador qué efecto puede tener ese cambio en el ambiente desde una perspectiva holística.
Utilizar soluciones de modelado que representan cada equipo de TI en el centro de datos, junto con monitoreo térmico y energético y herramientas de gestión de activos, es la combinación ganadora, explica Koomey.
Esta integración entre las diferentes herramientas puede realmente ofrecer el tipo de escenarios posibles  que conducen a decisiones inteligentes que minimizan la capacidad infrautilizada.

jueves, 18 de julio de 2013

#Épsilondc,FACEBOOK TRABAJA EN UN DCIM PARA SUS PROPIOS DATA CENTERS

En muchos casos, compañías como Facebook, cuyo éxito depende en gran parte de la calidad de su infraestructura de centro de datos, han encontrado la opción del “hazlo tú mismo” como la mejor solución. La red social ha diseñado sus propios centros de datos y mucho de lo que se incorpora dentro de ellos, incluidos los equipos de TI y la infraestructura mecánica y eléctrica.
Facebook ha creado un repositorio con datos de los servidores, que contiene información como la ubicación física de un servidor, su configuración (CPU, memoria, almacenamiento, etc.), su consumo de energía, el uso de la CPU, etc. “Sabemos a qué clúster pertenece y qué función se supone que debe llevar a cabo”, dijo Furlong.
Al mismo tiempo, las instalaciones están equipadas con herramientas para la monitorización de la energía y modelado de dinámica de fluidos computacional (CFD) para gestionar la temperatura y la humedad en el piso del centro de datos.
El objetivo final del proyecto es la construcción de un sistema que ayude al equipo a encontrar formas más eficientes de llenar las instalaciones del centro de datos con racks de servidores, dijo Furlong a DatacenterDynamics.

miércoles, 17 de julio de 2013

#Épsilondc, ¿La Adopción de un Cloud Privado mejora el desempeño de TI?

En las organizaciones está creciendo el interés por la adopción de Cloud Privado, que por un costo típica mente similar, proporciona beneficios de flexibilidad de la Nube Pública, pero de manera privada, lo que permite a departamentos de TI, entre otras cosas, controlar la calidad de servicio desplegado para usuarios.
Adoptar soluciones de Cloud Privado permite a las empresas mejorar su control completo de infraestructura, visibilidad de información, seguridad y cumplimiento regulatorio, niveles de servicio y funcionalidad.
Soluciones para Nube Privada ofrecen ventajas como:
• Reducción de costos.
• Incremento en seguridad de datos.
• Agilidad para proveer acceso bajo demanda a aplicaciones.
• Infraestructura en modo de autoservicio.
• Escalabilidad.

martes, 16 de julio de 2013

#Épsilondc, ¿Sabes que aporta el DCIM al #DataCenter?

Hoy en día casi todos los dispositivos son gestionables por sí mismos. El data center cuenta con sensores de temperatura, de humedad, de presión, etc y cuantos más datos de una infraestructura tenga el DCIM, mucho mejor.Es decir, hacemos integraciones con los sistemas existentes en el data center.
Las herramientas DCIM son aquellas que permiten una gestión integral de las diferentes piezas de gestión dentro del data center, y no solamente de una de ellas.
DCIM va a convertirse en la herramienta de gestión del data center. Ése va a ser el futuro, en cuanto pasen un par de años y tengamos un poco más de implantación.

lunes, 15 de julio de 2013

#Épsilondc LOS SERVIDORES HAN SIDO UNA “CAJA NEGRA” EN EL #DataCenter

Mientras que las facilities han ido ganando visibilidad en términos de consumo energético, los servidores se han mantenido hasta hace poco prácticamente ocultos en el data center. Ahora, afortunadamente, la situación está cambiando y las TI tienen cada vez un papel más importante para la eficiencia.
Poco a poco, los sistemas DCIM han tenido visibilidad y capacidad de control sobre el consumo energético y temperatura en tiempo real de todos los elementos del centro de datos, pero para ellos los servidores eran una “caja negra”; no tenían información de lo que sucedía en su interior ni podían interactuar con los servidores para mejorar la eficiencia energética del centro de datos.
Sin embargo, desde hace un par de años a esta parte, los servidores incorporan tecnologías de bajo nivel (hardware y/o firmware) con sensores que aportan información detallada en tiempo real a las capas de software superiores (hipervisor, sistema operativo y aplicaciones), que son entonces capaces de tomar decisiones en función de esa información para la optimización de la eficiencia.

jueves, 11 de julio de 2013

#Épsilondc, EMERSON CREA UNA UNIDAD DE GESTIÓN TÉRMICA

Emerson Network Power ha creado una unidad de gestión térmica (Thermal Management) para aumentar su capacidad de entregar soluciones integrales para controlar el entorno de data center.
La compañía integra el porfolio de cooling de Liebert en una división con la que espera unos ingresos de 800 millones de dólares.
La línea de productos de refrigeración Liebert de Emerson se ha integrado en esta unidad de gestión térmica. Los ingresos anuales de esta nueva división se sitúan en torno a 800 millones de dólares, según indicó la compañía.
La unidad comercializará economizadores de aire, de agua y que bombean refrigerante, además de sensores inalámbricos y controladores. Dentro de este porfolio se encuentran también soluciones de manejo del aire personalizadas con agua enfriada y tecnologías refrigerantes y con evaporación directa e indirecta.

En 1965, Liebert introdujo en el mercado por primera vez sus sistemas de aire acondicionado para salas de servidores. Se trataba de unidades de cooling para TI independientes, capaces de mantener la temperatura del aire, la humedad y la calidad del aire dentro de los márgenes.

Los sistemas de infraestructura de los data centers actuales utilizan redes de sensores por cable o inalámbricos para monitorizar el rendimiento de los equipos y las condiciones ambientales, y están mejor equipados para actuar sobre estos datos, afirman desde Emerson.  

miércoles, 10 de julio de 2013

#Épsilondc, presente en los #DataCenterDynamics

The DatacenterDynamics Awards han sido la piedra angular del reconocimiento a la innovación y las mejores prácticas en la industria de los centros de datos desde su inicio en 2007 en Europa. Ahora, por segundo año consecutivo, los Latam Awards se celebrarán en México D.F. para premiar a los mejores profesionales del sector en siete categorías:
1.- Pensamientos futuros & conceptos de diseño, hará entrega del premio Emerson Network Power
2.- Innovación en el data center micro
3.- Innovación en el data center medio, hará entrega del premio #Épsilondc
4.- Innovación en el mega data center                                
5.- Mejora de la eficiencia energética en el data center      
6.- Reconocimiento especial al equipo de data center del año                                 
7.- Contribución excepcional a la industria
Como sus homólogos europeos de la industria pueden dar fe, no es poca cosa ser nominado para los premios que se han convertido cariñosamente en el “Oscar” de la industria de los centros de datos.
La presentación de las candidaturas es completamente gratuita. El plazo está abierto desde el 24 de junio hasta el 26 de agosto.
Las candidaturas son evaluadas por jueces independientes entre los profesionales más renombrados del sector.
El Panel de jueces se selecciona en base a la experiencia técnica y operativa dentro de la región de los Awards. En este panel se elige un Presidente, Fernando García de The Green Grid, cuya misión es guiar y revisar todo el proceso, y por supuesto, intervenir en cualquier asunto que pueda afectar a la integridad de cualquier categoría.
La publicación de los finalistas tendrá lugar el 23 de septiembre.
La ceremonia de entrega de premios tendrá lugar  el mismo día  del DatacenterDynamics Converged de México, el 23 de octubre con más de 300 profesionales de la industria a partir de las 19 p.m.

lunes, 8 de julio de 2013

#Épsilondc, Considerar a la nube como una estrategia de negocios

De acuerdo con el Estudio Anual de Continuidad de Negocios de AT&T, 63% de los ejecutivos encuestados consideran las brechas en seguridad como su mayor preocupación en términos de seguridad para el 2013.
El 84% de los encuestados indicaron que se encuentran preocupados por el nivel de utilización de las redes y los equipos móviles y su impacto en las amenazas de seguridad. El 88% señalaron que sus empresas cuentan con una estrategia en este rubro, mientras que el 64% incluye sus capacidades de redes móviles como parte de sus plan de continuidad de negocios y el 87% de los ejecutivos indican que sus organizaciones cuentan con un plan de continuidad para casos de desastres o amenazas.
El reporte señala que al incrementarse los presupuestos de TI, las empresas viran cada vez con más frecuencia a los servicios en la nube para desarrollar sus planes de continuidad de negocios para minimizar el impacto de posibles desastres.
En 2013, 76% de las empresas están usando la nube o piensan invertir en servicios en la nube. El 62% de los encuestados ya incluyen servicios de nube como parte de su infraestructura empresarial (11 puntos porcentuales más que el año pasado). El 66% de las empresas están usando o piensan usar servicios de nube para mejorar su estrategia de continuidad de negocios, mientras que el 49% está considerando el cómputo en la nube como una solución para la recuperación de datos en caso de desastres.

viernes, 5 de julio de 2013

Investigadores Brasileños Desarrollan Tecnología para Reducir Costo de Baterías

Un grupo de investigadores de la Escuela Politécnica (Poli) de la Universidad de Sao Paulo (USP) desarrollaron la tecnología necesaria para la construcción de baterías con menor cantidad de platina, informó el centro académico.
Las baterías de células de platina son usadas en vehículos eléctricos de última generación, dada su durabilidad y eficiencia, sin embargo, su alto costo ha impedido que sean adaptadas para dispositivos móviles, como celulares y tabletas, con lo que la tecnología desarrollada podría acelerar la incursión de baterías de platina en otros dispositivos.
Adir José Moreira, investigador de la USP y uno de los responsables del proyecto, explicó que   este tipo de batería genera energía a partir de un combustible que puede proceder de fuentes externas, como el hidrógeno, mediante un proceso electroquímico que usa platina como catalizador. La platina separa el hidrogeno en electrones y protones con lo que se produce energía eléctrica.
En orden de reducir los altos costos de la platina, el equipo de investigadores optó por aumentar la actividad química del metal con menores cantidades: nanopartículas de platina. “Con las nanopartículas conseguimos alcanzar la misma eficacia pero con menor eficacia”, comentó el investigador.
“Con un cuarto de la platina que normalmente se usa en la fabricación de las baterías conseguimos 50 por ciento de desempeño. Ahora vamos a perfeccionar la técnica para garantizar una organización mejor de las nanopartículas y del filme de carbono”

miércoles, 3 de julio de 2013

#Épsilondc, Acierto al elegir al proveedor adecuado para Mantenimiento Preventivo

Al decidir por  una organización proveedora de servicios de mantenimiento que sea capaz de aplicar el concepto de MP para el centro de datos es una decisión que debemos considerar como un punto importante, ademas de conocer las ventajas que esta decisión nos traerá:
  1. Los repuestos más recientes o compatibles con el producto en mantenimiento.
  2. Piezas originales de fábrica utilizadas como repuestos.
  3. Los repuestos están reparados  por técnicos calificados.
  4. Servicio especializado en productos específicos
  5. Experiencia por la cantidad de instalaciones ya realizadas.
  6. El personal esta capacitado en fábrica para prestar mantenimiento y certificado según normas nacionales de seguridad
  7. El personal recibe evaluaciones regulares y capacitación actualizada
  8. Informes técnicos y documentación para el propietario del centro de datos una vez finalizado el mantenimiento.
El mantenimiento preventivo es una ayuda clave para los centros de datos completamente operativos. Los contratos de mantenimiento deben incluir una cláusula de cobertura de MP para que el propietario del centro de datos no tenga que preocuparse y cuente con un soporte integral disponible cuando sea necesario. 

martes, 2 de julio de 2013

#Épsilondc, piensa en todo excepto en el Mantenimiento de tus equipos

El confiar el centro de datos en manos de los expertos le da la oportunidad de planear en tres sencillos pasos:
1.- Elaborar estrategias de mantenimiento basadas en estándares de data center.
2.- Reducir costos operativos y contar con datos eficientes en términos energéticos cumpliendo la función principal.
3.- Evitar problemas.
Aunque esta planificación a simple vista parezca complicada, se realiza con un sencillo análisis de prácticas habituales. Es decir, una de las claves del mantenimiento del centro de datos es conocer a detalle los sistemas que forman parte de él: en su nivel básico, el mantenimiento puede implementarse como estrategia para mejorar el rendimiento en términos de disponibilidad de un componente particular del centro de datos.
Se debe tener en cuenta que el riesgo de obtener un resultado negativo aumenta drásticamente cuando el mantenimiento lo realiza una persona que no está debidamente calificada.
El mantenimiento debe ser realizado por personal calificado que confirme que los equipos de la infraestructura estén funcionando correctamente e identifique su desgaste para cumplir con los objetivos de productividad del sistema planteados por el propietario del centro de datos.

lunes, 1 de julio de 2013

MANTENIMIENTO PREVENTIVO VS CORRECTIVO, ¿UNA NECESIDAD O UN GASTO PARA SU DATA CENTER?

Se estima que entre el 30% y el 40% de las interrupciones de un data center son debidas, en un 30%, a fallas de infraestructura de hardware, y según el Uptime Institute un 70% tienen su origen en el error humano.
Las condiciones en que normalmente encontramos a los data centers es que son de un limitado o nulo presupuesto, ya que se considera como un gasto y no como una inversión al desconocer las consecuencias por no contar con un respaldo que identifique los problemas antes de que ocurran.
Un servicio integral de mantenimiento asegura la disponibilidad de las infraestructuras, sin interrupciones en su funcionamiento. Una infraestructura de misión crítica tiene que estar siempre operativa. No puede haber interrupciones en el servicio.
Al hablar de mantenimiento identificamos dos tipos:
- El mantenimiento preventivo que garantiza la operatividad y fiabilidad de los sistemas permite detectar las fallas que se produzcan en la infraestructura para evitar consecuencias. Este servicio  incluye  revisiones periódicas  que  controlan el correcto funcionamiento de los equipos, dando pie a recomendaciones. Una de ellas es la predictiva, en la que se informa al cliente del tiempo de vida con que cuentan los equipos para tomar precauciones. En el caso de la segunda recomendación, que es la proactiva,  donde la información proporcionada es con el fin de actualizar al cliente en cuanto a las ventajas que ofrecen los nuevos equipos o complementar a sus actuales equipos con el único fin de realizar mejoras. Entre estas mejoras están el ahorro y un máximo beneficio de los equipos.
- El segundo tipo es el mantenimiento correctivo, que entra en funcionamiento cuando ya se ha producido la falla en los equipos. Su función principal es la de identificar y solucionar el problema. Y se divide en dos: no programado y programado. La diferencia entre ambos es que en el primero la falla surge inesperadamente y la solución debe ser inmediata; mientras que en el caso del mantenimiento correctivo programado, la reparación puede esperar y se puede realizar cuando se cuente con los recursos técnicos, materiales y de personal.
El confiar el centro de datos en manos de los expertos le da la oportunidad de planear en tres sencillos pasos:
1.- Elaborar estrategias de mantenimiento basadas en estándares de data center.
2.- Reducir costos operativos y contar con datos eficientes en términos energéticos cumpliendo la función principal.
3.- Evitar problemas.
Aunque esta planificación a simple vista parezca complicada, se realiza con un sencillo análisis de prácticas habituales. Es decir, una de las claves del mantenimiento del centro de datos es conocer a detalle los sistemas que forman parte de él: en su nivel básico, el mantenimiento puede implementarse como estrategia para mejorar el rendimiento en términos de disponibilidad de un componente particular del centro de datos.
En cambio, en un nivel más avanzado puede aprovecharse como una estrategia principal para asegurar la disponibilidad de todo el centro de potencia (generador, interruptor de transferencia, transformadores, disyuntores e interruptores, unidades PDU y UPS) y de todo el centro de enfriamiento (unidades CRAC y CRAH, humidificadores, condensadores, chillers).
Se debe tener en cuenta que el riesgo de obtener un resultado negativo aumenta drásticamente cuando el mantenimiento lo realiza una persona que no está debidamente calificada.
Hoy en día la mayoría de los centros de datos necesitan de tres a cuatro mantenimientos preventivos al año. Esta frecuencia dependerá del entorno físico, es decir, si la infraestructura se encuentra en un ambiente hostil, sometido a altas temperaturas, con polvo, contaminante o vibración.
El mantenimiento debe ser realizado por personal calificado que confirme que los equipos de la infraestructura estén funcionando correctamente e identifique su desgaste para cumplir con los objetivos de productividad del sistema planteados por el propietario del centro de datos.
Tal y como lo hemos reiterado, sin lugar a dudas día a día nuestros equipos pueden presentar problemas operativos de distinto origen que provocan inconvenientes tales como paros indeseados. Debe de tener la seguridad de confiarle sus equipos a manos expertas que brinden opciones de soluciones oportunas y la tranquilidad en su centro de datos.
La toma de decisión para realizar un mantenimiento puede darle beneficios o desventajas:
BENEFICIOS:
- Permitir correcciones preventivas
- Sistema de mayor confiabilidad y vida útil
- Disminución en el tiempo de inactividad del proceso
- Disminución en los costos de mano de obra y en las piezas
- Mejor calidad del producto
- Mejora de la seguridad
- Ahorro de energía
DESVENTAJAS:
- Aumento de inversión en el diagnóstico de equipos
- Aumento de inversión en la capacitación del personal
- Pérdida de tiempo en la interrupción de actividades
La decisión de confiar en una empresa especializada para realizar servicios de mantenimiento depende de usted,  nosotros ponemos a sus órdenes a nuestro personal especializado desde el momento en que lo requiera.