<img height="1" width="1" alt="" style="display:none" src="https://www.facebook.com/tr?ev=6016380644279&amp;cd[value]=0.00&amp;cd[currency]=USD&amp;noscript=1">
canal-comstor-logo
El blog de Comstor México
  • Cisco Intersight: gestión de centro de datos basada en la nube
  • ¿Sus clientes están preparados para la nueva generación de red?
  • 3 recomendaciones para poder escoger un firewall de última generación
  • Cisco Intersight: gestión de centro de datos basada en la nube
  • ¿Sus clientes están preparados para la nueva generación de red?
  • Seguridad digital: los 6 principios de la defensa integrada contra amenazas

Big Data: desafíos de la nueva tecnología

Publicado en 08-abr-2014 5:00:00

Existen 2 obstáculos para las empresas: cómo adquirir y almacenar los datos y cómo estructurar un equipo de trabajo capacitado.

140408_BigDataDesafíos_blog

Proyectos de Big Data ofrecen una base para la toma de decisiones desde el análisis de grandes cantidades de datos. Con este análisis es posible identificar de manera más precisa, entre otras cosas, patrones de consumo para obtener información sobre la forma en que el consumidor se relaciona con una determinada empresa por ejemplo. A pesar de su gran potencial, aún existen desafíos a enfrentar para la implantación efectiva de un programa de Big Data.

Hay dos grandes desafíos cuando se trata de Big Data. El primero está relacionado a la adquisición y almacenamiento de los datos. Existe la necesidad de mayor velocidad de procesamiento y análisis de los datos, lo que requiere una mayor inversión en memoria y procesadores para gestionar rápidamente esta enorme cantidad de información.

¿Qué tipo de datos se deben guardar o desechar? ¿Cómo almacenar estos datos de manera segura? Estas son algunas preguntas que es necesario contestar para iniciar la idealización del proyecto de Big Data, pues la mayor parte de los datos actualmente no tiene una forma estructurada, es decir, no tiene estándares organizados de imágenes o textos para que los pueda analizar el sistema. Transformar imágenes, textos y datos en información estructurada es fundamental para el análisis de Big Data.

Actualmente, la mayor parte de los datos se genera digitalmente, lo que suscita la necesidad de crear modelos de “conexión”, técnicas de SEO y otras optimizaciones, que trabajen en favor de un procesamiento más efectivo. A partir de ahí, la organización y el análisis del Big Data comienzan a tomar cuerpo, pero aún enfrentan barreras relacionadas a la complejidad de los datos a analizar. Esta complejidad es un punto crucial.

Big Data debe pasar por un proceso de gestión de datos que se encuentran en un determinado contexto. Es necesario entender estos datos y contextualizarlos para que se realice con calidad el análisis. También se debe pensar en cómo desarrollar preguntas que tengan sentido con los datos analizados. Para ello, habrá necesidad de sistemas más inteligentes y mayor soporte para la interacción del usuario con la tunelización de análisis, es decir, un mayor soporte en la interacción del colaborador con el sistema de la empresa.

Para trabajar con esta complejidad resulta necesario estructurar un equipo de TI capacitado. Este es el segundo gran desafío asociado a Big Data. Contar con un equipo de profesionales preparados, que tengan conocimientos más técnicos sobre la tendencia y que logren manejar una enorme cantidad de datos provenientes de todos los dispositivos conectados a Internet. Trabajar la forma en que se muestran los datos, por ejemplo, también es importante. Como la cantidad de datos es enorme, mostrarlos todos en una sola gráfica para fines de análisis es muy difícil. Imaginemos el caso de una empresa de ventas que desea información sobre la cantidad de productos vendidos en determinadas tiendas del país y que todos estos datos están juntos en la gráfica sin ninguna división por categorías. Resulta casi imposible extraer información relevante de esta montaña de números y registros. Agruparlos en una exhibición de alto nivel, en que pequeños grupos de datos sean visibles, facilita y agrega calidad al proceso de análisis.

Finalmente, la presentación de los resultados es otro punto clave en la eficiencia de esta tendencia. El equipo de TI que trabaja con el procesamiento y análisis de los datos de Big Data debe tener la capacidad de analizarlos y presentar informes con resultados e interpretaciones de esta enorme cantidad de datos en un lenguaje no técnico, es decir, en un lenguaje comprensible para todos, que genere conocimiento y aporte a las decisiones.

 

Internet of Things

 

gostou-deste-post_esp

¿Qué es Big Data? 

Fuentes:
http://cra.org/ccc/docs/init/bigdatawhitepaper.pdf
http://www.sas.com/resources/asset/106008_5BigData_FINAL.pdf



Categorias: Big Data