<img height="1" width="1" alt="" style="display:none" src="https://www.facebook.com/tr?ev=6016380644279&amp;cd[value]=0.00&amp;cd[currency]=USD&amp;noscript=1">
Header topo - Blog LAC
TD SYNNEX
  • Quiero conocer los cursos
  • Quiero conocer los cursos
  • Quiero conocer los cursos
  • Quiero conocer los cursos.

5 consideraciones sobre la próxima compra de almacenamiento para su empresa

Publicado en 09-jun-2015 5:00:00

La correcta evaluación y selección de la matriz de almacenamiento puede definir el futuro de un Data Center.

5 consideraciones sobre la próxima compra de almacenamiento para su empresa

Se puede decir que la infraestructura de almacenamiento es el corazón de un Data Center, ya que proporciona una base funcional a la empresa. Según este concepto, un diseño optimizado es el que trabaja de forma imperceptible, al actuar como un facilitador invisible de operaciones constantes. En cambio, un diseño por debajo de lo ideal puede perjudicar al equipo de trabajo de TI y las operaciones de la empresa, pues habrá necesidad de un mantenimiento constante y, en la mayoría de los casos, de un aumento de gastos de inversión.


Hay que reflexionar sobre esta importante cuestión: los datos duran más tiempo que cualquier software o hardware en el que pueda invertir una empresa pues, al contrario de las aplicaciones y los servidores, los datos son bienes durables que se acumulan año tras año, por lo que son cada vez más difíciles de gestionar, almacenar y migrar. Por lo tanto, el despliegue de un sistema de almacenamiento que crezca de forma flexible junto con los datos, que simplifique las cosas a medida que estos aumentan, y que aporte a largo plazo eficiencia y beneficios cuantitativos, resultará en una ventaja competitiva para la empresa.


Dada la velocidad con la que se producen las innovaciones y aplicaciones comerciales en el presente mercado, puede ser bastante difícil elegir una infraestructura de almacenamiento que sea la adecuada para cierto negocio. Las consideraciones que se presentan  a continuación proponen un conjunto de criterios de selección, pues se enfocan en requisitos cuantitativos que aumentan de escala junto con los datos, aportan beneficios en términos de costo total de propiedad (TCO) y generan para el negocio un retorno real sobre la inversión (ROI) a medida que la implantación adquiere un mayor nivel de madurez.

 

1- Automatización


La tendencia es que las redes “Definidas por Software” sean el nuevo modelo a utilizar en las operaciones de los Data Centers. Es la evolución de la virtualización de los servidores que se extiende por todas las áreas de la computación, las redes y los sistemas de almacenamiento, haciendo posible el abastecimiento dinámico y la configuración de dispositivos de hardware, aportando nuevos niveles de agilidad para acelerar las operaciones.


Para asegurar que el negocio y la organización de TI puedan seguir el ritmo de la economía digital, la plataforma de almacenamiento de una empresa debe ser programable, tener la capacidad de integrarse totalmente a la infraestructura y aplicaciones ya existentes y poder adaptarse a los cambios en la carga de trabajo o los conjuntos de datos. La API (Application Programming Interface o, en español, Interfaz de Programación de Aplicaciones) basada en  REST (Representational State Transfer o, en español, Transferencia de Estado Representacional) es un estilo de arquitectura de software que consiste en orientaciones y mejores prácticas para la creación de servicios web escalables, que está surgiendo como el parámetro para los servicios escalables y debe considerarse como un elemento obligatorio para proporcionar el soporte ideal a la escalabilidad de un Data Center.


Un sistema de almacenamiento de alto nivel, escalable y eficiente, puede definir el futuro de un Data Center y del negocio. Es imprescindible considerar las implicaciones a largo plazo en el momento de evaluar la próxima compra de almacenamiento, sopesando la escalabilidad, latencia, gestión, simplicidad, TCO (Total Cost of Ownership o, en español, costo total de propiedad) y beneficios de desempeño para garantizar que la infraestructura pueda dar soporte al negocio en el futuro.

 

 

2- Latencia

Las soluciones modernas de almacenamiento tienden a competir en términos de IOPS (Input/Output Operations Per Second o, en español, Instrucciones de Entrada /Salida por Segundo), es decir, tienden a competir en términos de rapidez de envío de datos. El desempeño de almacenamiento es una medida crítica, pero la capacidad de enviar datos de forma constante con una latencia inferior a los milisegundos es primordial. Lo que aumenta la calidad de las aplicaciones no es el número de “Instrucciones de Entrada/Salida por segundo”, sino la latencia.


Es importante actualizar las soluciones de almacenamiento independientemente de que se necesiten bancos de datos para procesar más transacciones o para soportar entornos de VDI (Virtual Desktop Infrastructure o, en español, Infraestructura de Escritorios Virtuales) con mayor capacidad de respuesta.

 


3- Simplicidad

Los presupuestos y recursos de TI para contratar personal no están creciendo al ritmo necesario para cubrir las necesidades impuestas por el crecimiento de los datos.[J1]  En este escenario, las organizaciones deben elegir e implementar tecnologías que posibiliten la escalabilidad de los Data Centers, de forma que permitan que todos los empleados puedan gestionar más datos que los que administran actualmente. La simplicidad es el mejor medio de lograr este objetivo.


Algunos puntos que se deben observar son:

- ¿La matriz de almacenamiento tiene opciones de configuración o definiciones ajustables?

- ¿La matriz requiere que se reconfiguren u optimicen las aplicaciones? De ser así, esta matriz tal vez no sea la elección más adecuada. Las arquitecturas de almacenamiento verdaderamente sencillas son aquellas capaces de ajustarse de forma inmediata a varias cargas de trabajo sin que sea necesario realizar modificaciones en las aplicaciones.

 


4- Migración de Datos

Hasta hace poco tiempo, la migración de datos en las matrices tradicionales de almacenamiento era laboriosa e intensiva en el uso de recursos, pues típicamente consumía los primeros y últimos 90 días (o más) de la vida útil de una matriz de almacenamiento. Esto reducía efectivamente el ciclo de vida del uso real (de tres a dos años y medio o menos).


Una nueva generación de tecnologías de almacenamiento está cambiando la forma como se llevan a cabo las migraciones de datos. Al evaluar un sistema de almacenamiento, un CIO debe considerar una plataforma que realmente sea de próxima generación y que permita la sustitución o actualización del hardware sin ninguna interrupción o reconfiguración del entorno de TI. Este modelo trasciende a las arquitecturas “scale-out” (que se refiere a una arquitectura que no depende de ningún control y que aporta escalabilidad mediante el incremento del poder de procesamiento junto con almacenamiento adicional) y “scale-up” (que se refiere a una arquitectura que usa un recurso de control fijo para procesar los datos) o finalmente trasciende el desperdicio de una capa de abstracción de software en cada una de las plataformas de almacenamiento[J2] . Es muy simple: el nuevo hardware se implementa, el viejo hardware se elimina. No es necesario que funcionen temporalmente en conjunto. Esta independencia garantiza la protección de la inversión.

 


5- Necesidades de espacio, energía y refrigeración

En promedio, el crecimiento anual de los datos en todo el mundo es de un 50%. Si su equipo de TI aún no está sintiendo la crisis de la escasez de recursos de los Data Centers, probablemente la notará en un futuro cercano.


Los sistemas tradicionales de almacenamiento requieren un espacio físico considerable, además de muchísima energía eléctrica y refrigeración para alcanzar un desempeño aceptable. Los sistemas de almacenamiento de próxima generación, como los optimizados con memoria flash, pueden ofrecer tecnologías eficaces de reducción de datos que disminuyen las necesidades de capacidad de almacenamiento y espacio físico de todos los Data Centers en el mundo. Esta disminución resultará en la caída de los costos de adquisición, el aumento de la densidad y la elevación de la eficiencia (en términos de espacio, energía y refrigeración).


Basta pensar que mientras mayor sea la reducción del volumen de datos, mayor será el ahorro por reducción de gastos. La disminución de las necesidades de energía y refrigeración de la infraestructura de almacenamiento tendrá un impacto inmediato y positivo en el OPEX (“Operating expense" o gasto de funcionamiento) y en la huella de carbono de la empresa, además de rendirle décadas de nueva disponibilidad del Data Center corporativo.

 

 



Categorias: Centro de datos