miércoles, 25 de septiembre de 2013

#Épsilondc, Ahora la mejor forma de cerrar negocios es la convergencia de voz y datos

  • En la convergencia de voz y datos, los usuarios se conectan con otros, toman decisiones y cierran negocios, ahorrando tiempo, simplificando los flujos de trabajo e incrementando la interacción y productividad.
Ponen a disposición de los usuarios las aplicaciones de hospitalidad, centro de contacto, CRM (Customer Relationship Management), desarrolladas a partir de la integración con sistemas de comunicación TDA, TDE, NCP y el recientemente lanzado servidor de comunicaciones IP KX-NS1000.
Hoy en día al referirse al término comunicaciones, la tendencia es muy clara, se centra en la unificación, es decir, llamadas telefónicas, conferencias, videoconferencias, colaboración Web, monitoreo mediante cámaras de videovigilancia, todas integradas en una sola plataforma, y en esta convergencia de voz y datos también está Panasonic.
Communication Assistant: Es una aplicación para computadora, muy intuitiva y que concentra funciones tradicionales de teléfono en pantalla, con la posibilidad de visualizar el comportamiento de extensiones y computadoras de destino, además de integrarse con Microsoft Outlook para obtener y utilizar los contactos de esa aplicación. También cuenta con un módulo de Softphone IP (teléfono virtual) que permite a los usuarios fuera de la oficina, enlazarse con su computadora a la red IP corporativa, para comunicarse por teléfono a través de una conexión de banda ancha segura, e incluso administrar sus buzones de voz y mensajería instantánea.
Compatibilidad con soluciones de terceros: La arquitectura de código abierto de los conmutadores y servidores de comunicaciones Panasonic, permiten una integración fácil y completa con los desarrollos y software de terceras compañías, ofreciendo a los clientes, aplicaciones a la medida, según el giro y vocación de sus negocios.
Centro de contacto o call center: El socio proveedor Digital Corner es un especialista mexicano en soluciones de centro de contacto para tareas de telemarketing, soporte y atención al cliente con funciones de grabación de llamadas, marcación progresiva (proceso donde el operador tiene disponible el perfil del cliente, a partir de una base de datos), marcación predictiva (el sistema analiza las líneas de operador disponibles y canaliza las llamadas atendidas por una persona, discriminando fax y contestadores),y sistemas IVR (respuesta de voz interactiva).
Soluciones de hospitalidad: Char es una compañía española dedicada al desarrollo de soluciones para hoteles, entre otras, que se integra fácilmente con los plataformas de comunicación Panasonic para los servicios de tráfico de llamadas, tarificación de las entrantes y salientes que corresponden a las habitaciones de los huéspedes, así como de los servicios requeridos desde las mismas terminales. La integración es completa con los sistemas de gestión del hotel que administran datos como reservaciones, fechas de entrada y salida, disponibilidad de habitaciones, servicios y su estatus.
Integración con CRM: La compañía inglesa MondaGo desarrolla software CTI (Computer Telephony Integration) que convive con las plataformas Panasonic de comunicación para la integración de aplicaciones informáticas que administran la relación que las compañías mantienen con sus clientes, en las áreas de mercadotecnia, ventas publicidad, Internet y canales, principalmente.
121220_pyme_avaya-400-x-300

martes, 24 de septiembre de 2013

#Épsilondc, EMERSON NETWORK POWER LANZA UN UPS MÁS EFICIENTE

Emerson Network Power ha lanzado hoy el sistema de alimentación ininterrumpida (UPS, según sus siglas en inglés) Liebert APS con tecnología FlexPower.
El sistema permite conseguir hasta un 92% de eficiencia en modo de doble conversión. También admite requisitos de alimentación de hasta 20 kVA/18 kW y elimina la necesidad de sobredimensionamiento del UPS.
El Liebert APS está disponible de forma global.
Para mejorar la disponibilidad del sistema, el UPS Liebert APS cuenta con un diseño redundante, lo que permite a la carga crítica funcionar con alimentación regulada independientemente de cualquier fallo dentro del sistema.
Dispone de un bypass de mantenimiento, de modo que la carga conectada puede seguir funcionando mientras se realizan tareas de mantenimiento en el sistema.
Su escalabilidad modular permite a los usuarios de Liebert APS añadir capacidad de alimentación o tiempo de funcionamiento de respaldo para responder rápidamente a requisitos de alimentación cambiantes sin necesidad de apagar las cargas conectadas.
El UPS Liebert APS cuenta con la tecnología de diagnóstico remoto LIFE de Emerson, que proporciona mantenimiento proactivo, disminuyendo el tiempo medio de reparación (MTTR) y mejorando el tiempo de actividad de la carga.
El Liebert APS está diseñado para sitios de pequeño a mediano tamaño que esperan un aumento de los requisitos de alimentación a medida que se actualizan a servidores de mayor tamaño, agregan capacidad de almacenamiento y usan procesadores más potentes para satisfacer la creciente demanda de aplicaciones con un uso intensivo de recursos.
Los módulos FlexPower permiten que la capacidad de alimentación crezca en incrementos de 5 kVA/4,5 kW hasta alcanzar los 20 kVA/18 kW. También pueden incorporarse módulos de batería para aumentar la autonomía según sea necesario. Los módulos FlexPower y los módulos de batería pueden intercambiarse en caliente y agregarse o sustituirse sin problema.
El UPS Liebert APS puede instalarse en cualquier centro de datos o entorno de red, en suelos elevados o sin elevación, o en armarios de rack estándar. Tres puertos IntelliSlot permiten múltiples modos de comunicación y control.
El Liebert APS es compatible con el sistema de gestión de infraestructuras de centros de datos (DCIM) de Emerson Network Power, la plataforma Trellis y los sistemas de supervisión y generación de informes Liebert Nform y Liebert SiteScan, así como con el software de apagado Liebert MultiLink, que permite el apagado fiable y seguro de aplicaciones protegidas.

lunes, 23 de septiembre de 2013

#Épsilondc, LAS CAUSAS DE DOWNTIME EN DATA CENTERS

Hace ya bastantes años, aproximadamente unos 15, comenzamos a estudiar las causas que se encontraban en el origen de la pérdida de continuidad en la alimentación a equipos IT en data centers de primer nivel. Y lo hicimos en casos muy concretos y, a la vez, bastante sonados.
Y lo que, en principio, fue una relativamente pequeña sucesión de casos, supuso, sin embargo, la base para un estudio desarrollado hasta hoy, que va aumentando de número y donde la mayor contribución la tenemos en los tiempos más recientes.
En varias ocasiones hemos presentado dentro de los eventos de Data Center Dynamics, este estudio, incluso dos veces en el mismo lugar, eso sí, con unos años de diferencia (Madrid 2009 y 2013 y México 2010 y 2013).
La razón para ello es bien sencilla. El estudio va creciendo imparablemente, los casos de análisis se renuevan, y su divulgación resulta muy recomendable, sobre todo si con ello podemos evitar su repetición.
Durante los últimos meses, y a petición de la gente de DCD, hemos desarrollado además en estos eventos una nueva iniciativa consistente en el desarrollo de un work-shop al que, previa inscripción con limitación en el número, asisten profesionales del sector deseosos de compartir sus experiencias y ávidos de oír las de los demás. El tema de las caídas en los data centers resulta muy apropiado para este tipo de intercambios.
A día de hoy, el número de casos de estudio de los que disponemos, asciende a 57 y las conclusiones muy claras y refrendadas cada vez que compartimos esa información, como en el caso de los work-shop.
Por encima de un 50% debidos a actividades u operaciones asociadas al mantenimiento, o a su ausencia, lo que hace de este capítulo el más representativo, coincidiendo además con lo publicado últimamente a nivel internacional, en el sentido de identificar el error humano como la causa más probable de caída de un data center.
Por su parte, más de una cuarta parte de los casos son debidos a errores de diseño. Algo sobre lo que normalmente no se incide, en la creencia (errónea) de que cualquier diseño desarrollado por la gente del sector es válido.
El resto de los sucesos, alrededor sólo de un 20%, se deben a errores de construcción y a aquellos achacables directamente a los equipos.
Al analizar su naturaleza, tres conceptos se llevan las mayores responsabilidades. Los grupos electrógenos, los SAIs y la manipulación o acción directa y errónea sobre elementos clave del sistema. Entre los tres superan el 62%.
Por último, existe una conclusión muy esclarecedora. De un total de 57 caídas de CPD, 47 han sido por causas eléctricas, sin incluir aquí las que tienen su origen en la alimentación eléctrica de clima.
Por tanto, a la hora de tomar medidas para que sucesos de este tipo no se vuelvan a presentar en nuestras instalaciones, deberíamos empezar por asignar recursos para trabajar en aquellos campos donde se den las mayores probabilidades , es decir, en la parte de operación y mantenimiento en cuanto a la actividad y en la parte eléctrica en cuanto a la naturaleza de los fenómenos.
Por la parte de mantenimiento con un análisis a fondo de nuestra realidad actual, un plan de acción que solucione los problemas detectados y, además, un importante refuerzo de las actividades formativas en la convicción de que se trata de una inversión irrenunciable si no se quieren sorpresas desagradables.
En lo que a la mucha mayor influencia de los temas eléctricos respecta, constatar que hoy en día hay dos líneas de pensamiento que contribuyen a que los responsables de data center se olviden un poco de este tema.
La primera, auspiciada habitualmente por fabricantes de equipos, afirmando que los temas técnicos ya están resueltos, algo completamente equivocado y que nos está llevando a situaciones de una confianza extremadamente peligrosa y algo negligente.
La segunda, quizá motivada por el creciente peso que, dentro de las disciplinas intervinientes en un data center, ha tomado  en los últimos años la parte de refrigeración.
Las mejoras en eficiencia energética, donde la mayor contribución para el PUE es la instalación de clima, nos han llevado a centrar en este asunto muchos recursos informativos y de divulgación. Los crecimientos anunciados, y aun por llegar, en la densidad de potencia, que auguran tiempos  de inercia térmica muy cortos para las salas IT y, por tanto, mayor repercusión de la parte de clima en la continuidad del servicio, también han contribuido a perder un poco el foco en el concepto que más influye, el eléctrico.
Y para acabar de rematarlo, la presencia de estándares de diseño que son una referencia común para los nuevos proyectos y que, partiendo de concepto globales hacen luego tabla rasa en todos los subsistemas que componen el data center, concediendo la misma importancia a quien la tiene  de verdad y a quien no.
A medida que la cifra de casos de estudio se incrementa, va siendo cada vez más de aplicación la ley de los grandes números, primer teorema fundamental de la teoría de la probabilidad que establece que la frecuencia relativa de los resultados de un cierto experimento aleatorio, tienden a estabilizarse en cierto número, cuando el experimento se realiza muchas veces. En nuestro caso, cuanto más se incrementa la cifra de casos, más constantes son las proporciones obtenidas.
Los datos están ahí. Son pura realidad y nuestro deber es divulgarlos. Si no somos capaces de influir en los responsables de los data center para que tomen medidas, estaremos condenados a tropezar una y otra vez en la misma piedra, cerrando nuevamente el ciclo de fallo, algo lamentablemente demasiado común en nuestro sector.



viernes, 20 de septiembre de 2013

#Épsilondc, Nuevas Tecnologías para Data Centers más Eficientes

La infraestructura de almacenamiento, servidores y red está evolucionando para adaptarse mejor a un conjunto cada vez más diverso de cargas de trabajo ligeras, creando el surgimiento de segmentos de micro servidor, de Cold Storage y de entrada de red. Al optimizar las tecnologías para las cargas de trabajo específicas, Intel ayudará a los proveedores de Nube a aumentar significativamente la utilización, reduciendo costos y ofreciendo experiencias atractivas y coherentes a consumidores y empresas.
El portafolio incluye la segunda generación de la familia de productos del System-on-chip (SoC) de 64-bit Intel Atom C2000 diseñados para micro servidores y plataformas de Cold Storage (con nombre en clave “Avoton”), y para plataformas de entrada de red (con nombre en clave “Rangeley”). Estos nuevos SoCs son los primeros productos de la empresa basados en la micro arquitectura Silvermont, el nuevo diseño de 22nm Tri-Gate de procesadores SoC entregan un aumento en performance y eficiencia energética, y llegan apenas nueve meses después de la generación anterior.
Intel también presentó Ethernet Switch FM5224 de silicio que, al combinarse con el suite de software WindRiver Open Network, ofrece soluciones Software Defined Networking (SDN, por sus siglas en inglés), a servidores para mejorar la densidad y el bajo consumo de energía.
Asimismo, se mostró el primer rack operativo Intel Rack Scale Architecture basado en (RSA) con la Tecnología Intel Silicon Photonics, en combinación con la divulgación del nuevo conector MXC y la fibra óptica ClearCurve desarrollada por Corning con los requisitos de Intel.
colocation-rack

jueves, 19 de septiembre de 2013

#Épsilondc,Nueve verdades que dejan ver el futuro de los Big Data

De cuando en cuando me encuentro pensando acerca de los grandes principios de los Big Data; es decir, no acerca de Hadoop versus bases de datos relacionales o Mahout versus Weka, sino más bien acerca de la sabiduría fundamental que enmarca nuestra visión de “la nueva divisa” de los datos. Pero quizá el nuevo aceite describa mejor los datos. O tal vez necesitemos una nueva metáfora que explique el valor de los datos.
Las metáforas no son objetivas ni comprobables, pero sí iluminan ciertas verdades acerca de temas de interés. Vuelven entendibles conceptos complejos, muy similar a la serie de citas que he recopilado que se pudiera decir explican principios básicos de Big Data. Les diré ocho verdades sobre los Big Data (de seguro ya ha adoptado al menos algunas de ellas), ordenadas más o menos de forma cronológica. Luego daré un vistazo a una “verdad futura”.
1. “La correlación no es causalidad”
Escuchamos esto una y otra vez (o al menos yo lo escucho). Me aprendí una versión de la falacia implícita cuando estudiaba filosofía en la universidad: as post hoc ergo propter hoc; “después de lo ocurrido, por lo tanto debido a lo ocurrido”.
Puede leer un artículo inteligente en el blog de O’Reilly Radar, “The vanishing cost of guessing” (“El costo fugaz de la conjetura”), donde Alistair Croll hace la observación de que “abrumar las correlaciones es lo que hacen mejor los Big Data… La computación paralela, los avances en los algoritmos y el avance inexorable de la Ley de Moore han reducido de manera dramática el costo del análisis de un grupo de datos”, creando con ello una “sociedad orientada a los datos que es más inteligente y absurda”. ¿La perspectiva? Sea inteligente y respete la diferencia entre correlación y causalidad. Los patrones no son conclusiones.
2. “Todos los modelos están equivocados, pero algunos son útiles”
El estadístico por accidente George E.P. Box escribió esto en su libro de texto de 1987, Empirical Model-Building and Response Surfaces (“Construcción de modelos empíricos y superficies de respuesta”). Box ha desarrollado sus pensamientos sobre modelos, que se aplican ampliamente a los Big Data, a lo largo de su carrera. Vea en particular el artículo Science and Statistics” (“Ciencia y estadística”), publicado en el Journal of the American Statistical Association en diciembre de 1976.
3. Los Big Data lo saben (casi) todo
Si aún no lo ha hecho, es tiempo de aceptar la afirmación que hiciera Scott McNealy en 1999: “De cualquier forma no tiene privacidad alguna… Ya supérelo”. McNealy fue cofundador y CEO de Sun Microsystems, citado en la revista Wired. Los ejemplos de la creciente invasión de los Big Data son numerosos: la capacidad de los analistas de inferir el género y la orientación sexual de las personas a partir de sus publicaciones sociales y patrones de compra; la continua expansión de vastos almacenes de información de consumidores comercializados que alojan Acxiom y otros similares; el ascenso de la síntesis de información Palantir y Riot; la aspiradora NSA Prism.
4. “El 80% de la información relevante para los negocios se origina de forma no estructurada, principalmente como texto (pero también como video, imágenes y audio)”
5. “No es sobrecarga de información; es falla de los filtros”
Clay Shirky hizo esta observación en la Expo Web 2.0 de septiembre de 2008 en Nueva York.

miércoles, 18 de septiembre de 2013

#Épsilondc, Crean primera red celular comunitaria en Oaxaca

La revolución global de comunicaciones que se extendió por el mundo en los últimos años no llegó a la pequeña aldea zapoteca Talea de Castro, ubicada en las montañas de Oaxaca, donde para hacer cualquier tipo de llamada había que caminar hasta una línea telefónica de la comunidad y pagar el equivalente a un día de salario por cinco minutos de conversación.
Pero todo esto cambió gracias a un ingenioso plan cuyos promotores esperan pueda conectar con el mundo a miles de pueblos pequeños de México que actualmente se encuentran aislados.
Utilizando receptores de radio, un computador portátil y tecnologías de interconectividad relativamente baratas, la gente de la aldea saltó al siglo XXI mediante la creación de lo que se podría llamar una mini compañía de telecomunicaciones capaz de manejar 11 llamadas de celulares simultáneas a un costo muy inferior al que antes solían pagar.
“Ha sido un proyecto que ha funcionado para mantener la comunicación, porque antes se podía comunicar muy poco, porque era muy caro”, dijo Keyla Ramírez Cruz, residente Talea, quien tiene un programa en la radio comunitaria y que coordina el nuevo sistema telefónico.
Antes de la creación del sistema, los 2.500 residentes del poblado hacían sus llamadas desde la “caseta”, una tienda con una línea telefónica fija y que pagaban una tarifa de más de un dólar por minuto. Había poca privacidad y las llamadas internacionales costaban más de un dólar por minuto.
Para las llamadas entrantes era peor: se requería de un mensajero que corriera para atender las llamadas y avisarle a la gente del pueblo cuando alguien los estaba buscando.
Ahora, casi nadie en el poblado utiliza la caseta.
En sólo seis meses, más de 720 residentes se inscribieron para utilizar el nuevo sistema. Las llamadas locales realizadas a teléfonos móviles son gratuitas mientras que llamar a familiares que viven en Los Ángeles, por ejemplo, cuesta sólo 20 centavos mexicanos (1,5 centavos de dólar) por minuto. Cada suscriptor tiene un número de celular distinto.
El sistema usa una pequeña antena que capta las llamadas a través de un software instalado en una radio. Básicamente, se trata de un radio genérico que puede operar de una manera más económica y sencilla y utilizar menos energía porque ahora el software está haciendo la mayor parte del trabajo.
Este software es gratis, tiene su código abierto y sustituye a complejos sistemas celulares de propiedad de empresas privadas para recibir, transmitir y facturar llamadas. El programa también está diseñado para interactuar fácilmente con otros servicios de telefonía basados ??en internet, como Skype, que hace llamadas desde la conexión a la red global.
El software puede descargarse gratuitamente de internet y ejecutarse en un ordenador portátil. Así, la ciudad no tiene que pagarle a las grandes compañías comerciales, que cobran por enrutar cada llamada.
Pero el sistema ha presentado algunos contratiempos, incluida la mala recepción en algunas viviendas ubicadas en la periferia de la comunidad, o cuando hay mal clima y cuando hay pérdida momentánea del servicio de internet. Pero en general ha funcionado bien y ha resultado ser tan popular que la asamblea local votó a favor de imponer un corte automático cuando una llamada alcanza los cinco minutos para evitar la saturación de las líneas.
“Es muy cómodo y la llamada es de muy buena calidad “, dijo Alejandro López Canseco, de 21 años, miembro del concejo de la ciudad.
El sistema fue adoptado después de años de que el municipio cabildeara, sin éxito, para que las empresas de telecomunicaciones mexicanas instalaran el servicio de telefonía celular en su poblado.
“No quisieron poner el servicio celular porque decían que éramos comunidades muy pequeñas, que necesitaban comunidades mayores de 5.000 habitantes”, expresó Israel Hernández, residente del lugar. “Pero en la sierra de Oaxaca no hay muchas comunidades de más de 5.000 habitantes”.
Los habitantes del lugar, enojados, celebraron una asamblea indígena en marzo en la plaza principal del poblado y decidieron invertir cerca de 30.000 dólares de las arcas municipales para instalar el pequeño sistema telefónico, el software, la mayor parte de la antena y la estación de radio. El sistema de enlace a través de internet se hace mediante un proveedor de servicios de telefonía inalámbrica; algo así como una versión móvil del Skype.
Una organización sin ánimo llamada Rhizomatica, que estuvo detrás de la instalación del sistema, dice que podría ser un modelo para otros pueblos indígenas del mundo que se encuentran aislados y donde se estima que viven unas 700 millones de personas que carecen de un servicio celular asequible.
“Ha habido una gran cantidad de comunidades a las que las empresas se han negado a instalar sus servicios porque no pueden hacer dinero allí”, dijo Peter Bloom, líder de Rhizomatica. “Así que la pregunta es: ¿cómo se llega a estas comunidades para conectarlas?”.
Aún subsisten muchos obstáculos para que estos sistemas micro operen bien pues a menudo necesitan utilizar parte del espectro electromagnético puesto que sus mejores partes fueron compradas por las grandes compañías de telecomunicaciones.
“Hay empresas que pagan mucho dinero por estas licencias y que pueden sentirse amenazadas”, dijo Kurtis Heimerl, que estableció un sistema de telefonía rural similar en Indonesia este año.
Pero David Burgess, presidente de la compañía Range Networks con sede en San Francisco, y que proporcionó buena parte de la tecnología para el sistema telefónico de Talea de Castro, cree que las empresas podrían alquilar ‘bits’ no utilizados, dentro del espectro electromagnético comprado, a pueblos, organizaciones o pequeños operadores que desean ofrecer servicios rurales.
Después de todo, los entes reguladores de muchos países están presionando a dichas empresas para que ofrezcan cobertura en las regiones desatendidas.
Tiene la ventaja de que se “quitan de encima a los reguladores, se expande la red y se promociona en términos de relaciones públicas”, dijo Burgess. “Se les permite obtener algunos ingresos… y agregan un montón de nuevos suscriptores y fomenta el desarrollo económico”.
La empresa de telefonía celular líder en México, Telcel, dijo en un comunicado que proporciona su servicio a 200.000 comunidades de todo México, incluyendo a algunas con menos de 5.000 habitantes. Se dijo que invertirá casi 4.000 millones de dólares en un período de tres años para mejorar su red y sus servicios en México, aunque no se refirió al caso específico de Talea de Castro.
“La gente está muy contenta porque ya no tienen que hacer cola en la caseta ni salir si está lloviendo”, dijo Ramírez Cruz.

martes, 17 de septiembre de 2013

#Épsilondc, Las inversiones en Centros de Datos en México y América Latina se han reflejado teniendo un impacto en el incremento de la productividad.

  • El manejo de la energía en el mercado de la virtualización, ha tenido un crecimiento exponencial y las inversiones en Centros de Datos en México y América Latina se ha visto reflejado y ha tenido un impacto en el incremento de la productividad.
Fabricante industrial, informó que las empresas están logrando reducir costos de energía en servidores hasta en un 80%, 25% en energía al optimizar cargas y el 70% en el consumo de energía por parte de clientes, asegurando hasta un 95% de eficiencia en soluciones para la administración de energía eléctrica en infraestructuras de ambientes virtuales.
Lo anterior fue informado por Israel Gómez, Gerente de Calidad de Energía de Eaton en México, quien explicó que al procesarse millones de transacciones en las instituciones financieras o bancos, terminales aéreas, tiendas departamentales, empresas de infraestructura, hospitales, compañías de tecnología, en casi todos los procesos de manufactura, en épocas de elecciones o para temas de seguridad, entre otros aspectos estratégicos para el país, el poder contar con soluciones de energía ininterrumpible son clave y de vital importancia.
Por ello, el manejo de la energía en el mercado de la virtualización, señaló el especialista de Eaton, ha tenido un crecimiento exponencial y las inversiones en Centros de Datos en México y América Latina se ha visto reflejado, y también ha tenido un impacto en el incremento de la productividad.
El poder contar las empresas e instituciones con una mejor administración de la energía, redes, dispositivos de almacenamiento como servidores físicos y virtuales, evitar tiempos de inactividad por ausencias prolongadas de energía, el poder hacer migraciones tecnológicas sin riesgos, reducir costos en infraestructura o generar ahorros, son indicadores que han impulsado el desarrollo de la industria en diferentes sectores empresariales, aseguró el experto.

 

viernes, 13 de septiembre de 2013

#Épsilondc, EMERSON AUGURA UN FUTURO DE DATA CENTERS EN EL ESPACIO

¿Se imaginan una ubicación para su data center en la que nunca falte espacio para construir, pocos riesgos y una fuente de energía casi inagotable? Según contó a Fast Company Jack Pouchet, vicepresidente de desarrollo de negocio e iniciativas de energía en Emerson Network Power, ese lugar existe y es el espacio. Al parecer del directivo, esto será posible gracias a los avances en la automatización del data center, que evolucionará hasta alcanzar la robótica y el auto-reparado.
“Se podría hacer algo en el espacio por 100 millones de dólares”, reclama.
Pouchet imagina que los data centers se podrían enviar a una órbita geosíncrona, volando alto –pero no demasiado- sobre la Tierra. Estos data centers quizá no sirvan para cargas que requieren rapidez de recuperación, pero sí podrían utilizarse para “Almacenamiento frío” cuando la velocidad no es lo más importante.

jueves, 12 de septiembre de 2013

#Épsilondc, BBVA BANCOMER CONSTRUIRÁ UN DATA CENTER EN MÉXICO

El banco BBVA Bancomer invertirá casi 7.000 millones de pesos (más de 520 millones de dólares) durante los próximos tres años en el Estado de México.
Dentro de esta inversión se incluye un nuevo centro de cómputo en el país, desde el que dará servicios no solo internos, sino también a otros bancos de Latinoamérica, según recogen medios mexicanos como El Sol de México.
Tal como indicó Luis Robles, presidente del Consejo de Administración de BBVA Bancomer, el centro de datos regional estará ubicado en Atizapán. Aparte, la entidad contempla la apertura de oficinas y la renovación tecnológica de sus instalaciones.
Con sus actividades en el país, el banco genera 36.000 empleos en el país. Meses atrás, el banco anunció que iba a invertir en México 3.500 millones de dólares en cuatro años, incluyendo en esta cantidad tanto renovación de sucursales como infraestructura tecnológica.

miércoles, 11 de septiembre de 2013

#Épsilondc, Infraestructura Física Unificada en los Centros de Datos

El Centro de Datos, hoy en día, no sólo es el lugar donde se procesa la información. Éste, se ha convertido en la parte crítica de una organización, que soporta la toma de decisiones en tiempo preciso.Entre los retos que el sector enfrenta en México, paralelo al crecimiento que se observa en el mercado de las Tecnologías de Información y Comunicaciones (TICs), se encuentran: Acuerdos de Nivel de Servicios (SLAs), Amenazas de Seguridad de Capas Físicas y Lógicas, Diseño de una Infraestructura Robusta de Energía y Enfriamiento, Administración del PUE (Power Usage Efectiviness) y del DICIE (Data Center Infraestructure Efficiency), Implementación de Aplicaciones que requieren de Nuevas Tecnologías, Cumplimiento de Regulaciones e Iniciativas Ambientales,así como Maximizar el Uso del Inmueble.“Las Aplicaciones (Comunicaciones con alto contenido de Media y Voz sobre IP), Ambientes de Trabajo (Dinámico y Locaciones Remotas), Movilidad (PDAs, Laptops y MP3 Players) y el Incremento de Conexiones de Banda Ancha (de 5.3 Millones en el 2000 a 42.8 Millones en el 2005), han influenciado el crecimiento de los Centros de Datos en el país”.En el pasado los Data Centers se adoptaban como herramientas de operación interna, con distribución descentralizada, aislada, como una modalidad reactiva. Actualmente, sin embargo, la adopción de los Centros de Datos es vista como una herramienta estratégica de negocios.
Las nuevas Tecnologías de Información y Comunicaciones han venido a sumar: Consolidación (plataforma única que minimiza costos),Virtualización (optimización de recursos), Automatización(eficiencia y precisión), Administración Térmica (optimización de la eficiencia energética) y Administración de Energía (redundancia y espacio para crecimiento) a las empresas que adoptan estos avances en sus procesos organizacionales.Sin embargo, aun podemos encontrar ineficiencias en algunos Centros de Datos, “Data Centers sobreplaneados, por ejemplo, con un espacio excesivo asignado para el crecimiento futuro pues, 90% de los Centros de Datos corporativos, planean la capacidad de enfriamiento mayor a la que requieren en ese momento. La implementación de equipo ineficiente, es otro punto a considerar, ya que, el 72% de la capacidad de enfriamiento se desvía de los equipos (Uptime Institute); asimismo, la pérdida de energía inherente, con energía AC convertida a DC –transformada nuevamente a AC– y convertida finalmente a DC”, apuntó. Mientras tanto, la complejidad de la infraestructura física se va complicando:Energía y Enfriamiento, Espacio y Huella de Carbono, Alta
Velocidad de Transferencia, Evolución de los Sistemas Tecnológicos, Administración de los Sistemas y Aplicativos, Virtualización y Evolución a la Nube, Acuerdo en el Nivel de Servicio y Mejor Rendimiento de Operación, y Menor Costo por Mayor Rendimiento.“Los sistemas de Centros de Datos basados en Infraestructura Física Unificada (UPI), optimizan los recursos de infraestructura de manera inteligente, cubriendo, así, la capa física y la parte lógica: Diagnosticando
posibles fallas, Reduciendo tiempos caídos, Mejorando la administración de la energía, Conservando la energía y Reduciendo
la huella de carbono”.

lunes, 9 de septiembre de 2013

#Épsilondc DATACENTER DYNAMICS BOGOTÁ 2013 CONFIRMA LA FUERZA DEL MERCADO COLOMBIANO, espera nuestra participación en México

La cuarta edición de DCD Converged Bogotá, realizada esta semana en la capital colombiana, dejó patente la fortaleza del mercado colombiano de data centers. Según señaló José Friebel, director para América Latina de DatacenterDynamics: “Mantuvimos la asistencia de 600 personas, con un porcentaje de 80% usuarios y 20% proveedores que es muy bueno para generar negocios a los sponsors. Y además, hubo un 22% de gente que nunca había venido, lo que muestra la vitalidad del sector y del evento”.
Los grandes temas del evento fueron: cómo subsanar el déficit energético, incluyendo virtualización y cloud; certificaciones, cada vez más en boga; la creciente importancia del consultor en el diseño de los datacenter; el Comissioning, que un tercero haga un chequeo final del datacenter antes de ponerlo en marcha; y cuidar la operación, luego del diseño y la implementación. Por otro lado, se notó que los usuarios colombianos están muy activos en proyectos de data center, sensiblemente más que el año pasado.
La revista Prensario, media partner de los eventos DatacenterDynamics en Latinoamérica, entrevistó a consultores y usuarios, comprobando que hay muchos nuevos proyectos en curso. Y que sin duda profesionalizar los proyectos de data center se ha vuelto importante para los usuarios.
Eduardo Rocha, presidente de ICREA, entidad sin fines de lucro que busca profesionalizar el mercado de datacenters en la región, sostiene que hay un auge de las certificaciones: “Estamos hoy en proceso de certificación de 5 empresas en Colombia, con la segunda edición de la norma 2013. El mercado local ha dado un vuelco para bien”.
Todo esto combinado, confirma que Colombia transita una muy buena evolución en data center. Muchos proyectos nuevos, y madurez de los usuarios para profesionalizar con servicios sus distintas etapas. Sin duda, Colombia se ha consolidado como el tercer mercado de la región en data center.

viernes, 6 de septiembre de 2013

El Sistema de Cableado Categoría 6A genera un Mayor Rendimiento en Red

Presentan nuevo sistema de cableado Categoría 6A diseñado para cubrir las demandas de rendimiento y densidad de aplicaciones Ethernet de 10 Gigabit (10GbE).
El sistema Cat 6A U/UTP ofrece el primer cable no blindado para la transmisión de 10 GbE en más de 100 metros, ideal para acomodar velocidades de procesamiento mayores a las que existen actualmente y soportar la demanda de ancho de banda. Gracias a las tecnologías de cableado AirES y de relleno “inside-out”, el cable es capaz de proporcionar un mayor rendimiento y una relación de señal-ruido aumentada en un paquete más pequeño.
El cableado de cobre y la conectividad están compuestos por la nueva serie de jacks y paneles SL AMP-TWIST, junto con un patchcord de diámetro reducido Cat 6A. Los jacks modulares de la serie SL incorporan la tecnología patentada AMP-Twist, para proporcionar una velocidad superior, gran confiabilidad y consistencia en la terminación. Cuando se utiliza junto con la herramienta de terminación de la Serie SL, los cuatro pares trenzados se terminan y recortan simultáneamente en solo un minuto.
Los paneles de TE Connectivity Cat 6A U/UTP también ofrecen una densidad de 24 puertos en 1UR y 48 puertos en 2UR y están disponibles en configuraciones plana, angular y angular dinámica.
Con aproximadamente 0.285 pulgadas de diámetro y cables de conexión de 0.235 pulgadas de diámetro reducido, el cable es un 32% más delgado que los cables tradicionales Cat 6A, ayudando al ahorro de espacio en el cuarto de comunicaciones, reduce la cantidad de accesorios requeridos para su administración, y disminuye el riesgo asociado con fuego y humo. Los cables con tecnología AirEs de TE, utilizan aire como aislante para mejorar señal y fuerza de la velocidad, mientras que minimiza el tamaño del cable.

miércoles, 4 de septiembre de 2013

#Épsilondc,Emerson Network Power le ayuda a los directores de TI a administrar para el futuro

Emerson Network Power, una filial de Emerson y un líder global en maximizar la disponibilidad, capacidad y eficiencia de la infraestructura crítica, lanzó  tres informes ejecutivos para ayudar a los directores de TI a superar algunos de los problemas y decisiones más apremiantes que enfrentan ellos y sus organizaciones. Estos tres informes incluyen lo siguiente:
  • Eficiencia eléctrica y operativa de TI
  • Planear para el futuro
  • ¿Necesita un centro de datos nuevo?

“Identificar los costos más altos en recursos de TI ” analiza seis ineficiencias comunes del centro de datos; entre estas incluye los entornos heterogéneos, contratos de nivel de servicio innecesariamente altos y búferes de capacidad excesivos. Al encontrar y corregir estos desperdicios de recursos, los líderes de TI pueden liberar tiempo y dinero para un planeamiento activo..
En “Planear para el futuro de TI: Volverse más ágil, disponible y valioso para los negocios”, los directores de TI encontrarán cuatro estrategias diseñadas para ayudar a respaldar redes más sólidas y complejas de usuarios, socios y proveedores y, en el proceso, aumentar el valor de TI para el negocio. Una de estas estrategias conlleva unir la disponibilidad con la criticidad y el informe ejecutivo explica posibles enfoques que logran justamente esto y los cuales incluyen pero no se limitan a la computación en nube.
El tercer informe ejecutivo, “¿Necesita un centro de datos nuevo? Opciones para los negocios que están sobrepasando la capacidad de su infraestructura crítica” ayudará a los directores de TI a desglosar esa difícil, y con regularidad costosa, pregunta y estar seguro de la eventual respuesta. Un nuevo centro de datos puede costar un promedio de US$12-17 millones por megawatt: una inversión que ninguna organización debería tomar a la ligera. El informe ejecutivo ayudará a los directores de TI a entender lo que pueden o no pueden hacer con las instalaciones existentes y decidir cuándo y si es necesario construir un centro de datos nuevo.
Emerson Network Power, una filial de Emerson (NYSE:EMR), ofrece software, hardware y servicios que maximizan la disponibilidad, capacidad y eficiencia de los centros de datos, instalaciones de salud e industriales. Un líder confiable de la industria en las tecnologías inteligentes de la infraestructura, Emerson Network Power proporciona soluciones innovadoras para la administración de la infraestructura de los centros de datos que cierran la brecha entre la administración de TI y de las instalaciones y ofrecen una eficiencia y una disponibilidad sin sacrificios sin importar las demandas de capacidad. Nuestras soluciones están respaldadas globalmente por técnicos de servicio locales de Emerson Network Power. Infórmese más acerca de los productos y servicios de Emerson Network Power 
Información sobre Emerson 
Emerson (NYSE: EMR), con sede en ST. Louis, Missouri (EE. UU.), es un líder global en lo que respecta a la integración de tecnología e ingeniería para proporcionar soluciones innovadoras para clientes en los mercados industriales, comerciales y de consumidores mundialmente. La compañía cuenta con cinco plataformas de negocios: Process Management, Industrial Automation, Network Power, Climate Technologies y Commercial & Residential Solutions. 

martes, 3 de septiembre de 2013

#Épsilondc, Llega a México la primer base de datos diseñada para Cloud Computing

  • Lanzan la primera base de datos diseñada para la Nube que transformará negocios e incrementará la agilidad operativa y efectividad: Database 12c
La Arquitectura Multitenant es una característica única de Database 12c que permite a un contenedor de base de datos incorporar gran cantidad de bases de datos conectables, lo que ayuda a clientes a reducir costos de IT, simplificando la consolidación, administración, provisionamiento y actualizaciones.
Oracle Multitenant, permite a las áreas de TI aprovechar completamente los beneficios de la Nube, incluidos el uso compartido de recursos, flexibilidad en la administración y ahorro de costos, permitiendo “manejar muchas bases de datos como si fueran una”.
Oracle Database 12c tiene la capacidad de sincronizar entre ciclos remotos sin pérdida de datos. La distancia y latencias en las redes ya no son redes. Actualmente se podrán tener aplicaciones síncronas gracias al poder que ofrece la nueva tecnología, sin importar la distancia ni los anchos de banda.
La compañía brinda a clientes dos formas para innovar a través de Oracle Database 12c:
1)      El cliente genera cubos (aplicaciones, middleware y sistemas operativos, entre otros) y Oracle Database 12c le ofrece la capacidad de trabajar con las bases de datos de manera más eficiente.
2)     Sistemas de ingeniería. Se trata de integrar en hardware y software una base de datos lista para ser configurada al mínimo, usada de inmediato, aprovechar al máximo el hardware y software ambos están diseñados uno para el otro y obtener beneficios inmediatos.
Seguridad
Database 12c ofrece protección ante ataques internos y externos. Los ataques a las bases de datos son comunes, y las áreas de TI tienen la obligación de protegerla.
El enmascaramiento de datos previene la pérdida de información. Así, aunque se roben la base de datos, gracias a esta función incluida en Database 12c se generan datos falsos, o mejor dicho se “redactan los datos” en cuanto detecta que no se autentica la persona designada.
“La nueva arquitectura Multitenant le facilita aún más a los clientes consolidar sus bases de datos y administrar varias como una sola de forma segura. Asimismo, ofrece a otras capacidades para el cómputo en la Nube, como el aprovisionamiento simplificado, la clonación y la priorización de recursos sin tener que hacer cambios importantes en las aplicaciones”, dijo Fabio Rodríguez, sénior director Database Business Development para la división de Oracle en Latinoamérica.

lunes, 2 de septiembre de 2013

#Épsilondc, ¿Conoces las herramientas para optimizar tu #DataCenter?

Ahora que ya tiene su Centro de Datos implementado y con las últimas tecnologías, se ha preguntado ¿Cómo hacerlo más óptimo y eficiente? Pues bien, este interrogante tiene tanto de ancho como de largo. Recordemos que la optimización de recursos gira en torno a varios aspectos relacionados con el entorno del Centro de Datos, que pueden ir desde el control de flujo del aire hasta la gestión de distribución de energía.
Debido a que un mal diseño contribuye a que aumenten los costos de refrigeración en el Centro de Datos, algunos fabricantes de infraestructura han desarrollado soluciones para evaluación térmica que utilizan patrones de flujo de aire para  señalar los puntos calientes en una gráfica a color; de esta forma, los administradores mantienen una clara visibilidad de la eficiencia del Centro de Datos más allá del consumo de energía.
Es al implementar estos controles que uno se da cuenta que la pérdida de eficacia de enfriamiento puede provenir o bien de la pérdida de aire en los gabinetes, de obstrucciones en el flujo de aire, o de la mala separación del aire caliente del frío. Para enfrentar estos problemas, existen soluciones de pasillos fríos que pueden mejorar el flujo de aire y eficiencia de enfriamiento hasta en un 10%. De igual forma, la contención de pasillos fríos puede reducir la energía del ventilador de un 20% a un 25% y brindar un 20% de ahorro energético en refrigeración.
El otro factor a optimizar es la gestión de distribución de energía; mediante el uso de herramientas de monitoreo inteligente, las empresas pueden ahorrar dinero en costos de electricidad y de paso aumentar la optimización del consumo energético. Esto puede lograrse mediante un mapeo de las instalaciones que identifique cada activo y proceso operativo y priorice la energía y características térmicas de la instalación para gestionar eficientemente las facturas, contratos de leasing, licencias y renovaciones.
El uso de tecnologías de gestión puede darle una visión extendida de su Centro de Datos basada en cuadros de mando e informes predefinidos, con registros de control de cambios y documentación adicional que puede combinarse con dispositivos inteligentes para aumentar la funcionalidad. Al implementar herramientas inteligentes para distribución de energía, las empresas pueden además crear representaciones visuales de las métricas operacionales utilizando diagramas y medidores. Esta funcionalidad proporciona una visión inmediata de los signos vitales del Centro de Datos, incluyendo activos (equipos de red), conectividad, espacio y energía.
Tener un Centro de Datos en óptimo funcionamiento y que además esté en capacidad de soportar nuevas tecnologías como Big Data y computación en la Nube requiere de herramientas especializadas en gestión de energía y flujo del aire que permita documentar todos los procesos, activos, movimientos, adiciones y cambios, además de entregar visibilidad completa sobre el consumo de energía, temperatura y humedad de los equipos. Debe también ser capaz de brindar información precisa sobre espacio y conectividad para asegurar que los usuarios y accesos están en concordancia con requisitos regulatorios.
Solo así será posible que los administradores de TI comprendan donde están localizadas sus demandas actuales de energía y cuáles son los mejores caminos para optimizar sus recursos.