Search
Close this search box.
Search
Close this search box.

Tecnología analítica

Por: Ibex​​

El presente del análisis

A día de hoy, las tecnologías han impulsado diversos campos de estudio existentes como  las ciencias de la salud y las sociales, e ingenierías; Asimismo, el campo de las artes y humanidades ha sido impactado por esta revolución tecnológica. 

La innovación es una acción que ha repercutido en la humanidad, a través de todas las épocas; un proceso necesario para la adaptación de las nuevas generaciones.

La computadora fue uno de los inventos que transformó el mundo a como lo conocemos hoy, y el internet fue la explosión para el uso de este producto, fue la creación de lo que en esos tiempos se consideraba imposible: Mandar textos de un continente a otro, entrelazar sistemas de computador a computador o procesar millones de datos por segundo… Imposible se decía antes, hoy en día es algo cotidiano, habitualmente buscamos información, proyectamos datos, etc. ¿Pero cómo se llega a esto?

El proceso de la analítica ha sido uno de los determinantes en la innovación, pues debido a ello nos es posible descubrir, interpretar y transmitir los patrones importantes en los datos. El análisis permite ver estadísticas e información que de otra manera no podríamos detectar, mejorando la toma de decisiones derivadas de los resultados obtenidos.

El entorno de información en el que nos desenvolvemos en la actualidad no tiene precedentes. Los datos llegan estructurados y sin estructurar; desde registros GPS, blogs, vídeos, podcasts, tuits, etc. Actualmente, hay 9.000 millones de dispositivos conectados a Internet en todo el mundo, una cifra que aumentará en la próxima década, con estimaciones que van desde los 50.000 millones de dispositivos hasta 1 billón. Todos estos dispositivos y sistemas interconectados generan un enorme volumen de datos e información que podemos leer, entender y aprovechar para mejorar la vida cotidiana y los procesos de toma de decisiones.

El pasado del análisis

Se podría decir que la comparación de estadísticas y el análisis de datos son anteriores a lo escrito en la actualidad, pero algunos hechos importantes fueron los que ayudaron a desarrollar el proceso que se conoce actualmente. En 1785, William Playfair tuvo la idea de plantear un gráfico de barras; este gráfico sigue siendo el día de hoy uno de los más utilizados para la visualización de datos. Playfair, en su momento lo inventó para mostrar docenas de puntos de datos.

En 1812, otro referente del análisis de datos, el cartógrafo Charles Joseph Minard planificó las pérdidas sufridas por el ejército de Napoleón en su marcha a Moscú. Creó un mapa con líneas gruesas y finas que mostraban cómo las pérdidas se relacionaron con el crudo frío invierno y el tiempo que el ejército estuvo lejos de las líneas de suministro.

Asimismo, en 1890, Herman Hollerith inventó una “máquina de tabulación”, que registraba datos en tarjetas perforadas. Esto permitió que la información se analizara de una manera más rápida, lo que aceleró el proceso de recuento del censo de Estados Unidos, de siete años a dieciocho meses. Esto estableció un requisito para mejorar constantemente la recopilación y el análisis de datos que aún se aplican hoy en día.

Con este último hecho quizá algo te sea familiar. El cómo la recopilación y el análisis de datos ha innovado año tras año. En 1890 eran por medio de las tarjetas perforadas, después fueron procesos generados por computadoras con apenas 512 KB de RAM. Hoy en día un computador ordinario puede realizar alrededor de 100 millones de cálculos en un segundo, esto quiere decir que la tecnología nos ha podido facilitar el proceso.

El presente del análisis

En la actualidad softwares como SQL (Standard Query Language) se encargan de crear bases de datos relacionales para la extrapolación de datos, de acuerdo a la demanda.  Analistas como Howard Dresner de Gartner empezaría a llevar el análisis a mercados como el empresarial para impulsar la industria hacia el análisis de datos para la comprensión de los procesos.

Asimismo, se llegó al concepto de minería de datos, permitiendo a las empresas análisis y descubrir patrones en conjuntos de datos extremadamente grandes. Tanto los analistas como los científicos de datos, acudieron a lenguajes de programación como R y Python para desarrollar y crear algoritmos de aprendizaje automático, para permitir trabajar con grandes volúmenes de datos y crear visualizaciones complejas.

También actualmente mediante la analítica de estos grandes volúmenes de datos, las empresas pueden conocer mejor las necesidades de sus clientes y ser más competitivas, los médicos pueden diagnosticar con mayor precisión las enfermedades y ayudar a salvar más vidas y las instituciones financieras pueden detectar y prevenir más fácilmente el fraude.

 

La información es el aceite del Siglo XXI, y la analítica es el motor de combustión.

Peter Sondergaard

El futuro del análisis y la tecnología analítica

A medida que las empresas pasaron a ganar visibilidad de datos y exigir más información, las herramientas y sus capacidades también evolucionaron. Los primeros conjuntos de herramientas de análisis se basaron en los modelos semánticos moldeados a partir del software de inteligencia empresarial. Estos ayudaron a establecer un gobierno sólido, análisis de datos y alineación entre las funciones.

Con tecnología analítica, es posible simular diferentes posibles condiciones sobre los flujos futuros de efectivo y posiciones para poder hacer una planeación del negocio, a través de su liquidez, o capital, ya que permite hacer una simulación dinámica del negocio y con ello analizar los resultados plausibles. Los escenarios futuros cambiarán conforme se introduzca información nueva o actualizada, por lo que se obtendrá mayor conocimiento sobre el entorno de la entidad.

Para contextualizar lo anterior, refiriéndonos a la industria financiera: algunos bancos continúan teniendo algunas dificultades para hacer análisis de riesgo porque no están aprovechando al máximo las ventajas que ofrece la tecnología de punta. Entre las complicaciones que se han encontrado comúnmente son:

  • Tiempos de entrega de reportes limitados y procesos poco optimizados, lo cual provoca un alto consumo de recursos para poder elaborarlos, ejemplo de ello son los reportes de liquidez y de capital regulatorio.
  • Sistemas de información fragmentados, incluso faltas de integración de los diversos modelos utilizados para poder medir el riesgo, lo que se traduce en inconsistencias en los supuestos para generar resultados y, por tanto, en la toma de decisiones.
  • Apego excesivo a los procesos manuales durante el proceso, lo que trae como consecuencia una ineficiencia en los flujos de trabajo, excluyendo en este proceso automático que podría acelerar el flujo del resultado.
  • Pobre capacidad de procesamiento combinada con la complejidad de los procesos de análisis, derivada en que no se ejecuten dichos análisis con la debida frecuencia y, consecuentemente, existe poco margen para la innovación o el perfeccionamiento de tales procesos.
  • Falta de gobernabilidad de datos, modelos y procesos, aunado a una alarmante dependencia a las hojas de cálculo trae consigo un sinfín de problemas en cuanto a auditorías e integridad de la información, lo que disminuye la confiabilidad y oportunidad de los resultados.
  • Orquestación de actividades y rutinas (cálculos) laxas en cuanto a la auditabilidad y transparencia del proceso de análisis del riesgo del negocio.

La mayoría de estos problemas se resuelven de manera extraordinaria al implementar soluciones tecnológicas que operen bajo modelos probados que permitan a las instituciones financieras disponer de procesos flexibles, gobernables, transparentes, repetibles, escalables y auditables, esto es, deben contar con al menos:

Gestión de datos eficiente y transparente

Flujos de trabajo personalizables

Proceso gobernable, repetible y auditable

Gestión flexible de escenarios

Amplia gama de técnicas de modelado

Alto desempeño en procesamiento de información

Reportes y visualización dinámica

Asimismo, en este ejemplo pudimos visualizar que el uso de tecnología analítica de vanguardia tiene muchos beneficios porque permite a los gestores del negocio a partir de su riesgo involucrar a diferentes departamentos de la empresa en una plataforma que integrará toda la información disponible, un control de accesos robusto, mayor seguridad en los flujos de datos, el uso de modelos dinámicos probados y la versatilidad de los procesos del negocio en toda la compañía.

El análisis de toda la información al alcance del negocio para extraer de ellos una ventaja competitiva está suponiendo para las grandes organizaciones un antes y un después. Pero asimismo es necesario un cambio de mentalidad, una reorganización de la empresa, y una reestructuración tecnológica habilitando canales que trasladen los resultados de las diferentes analíticas a los responsables de la toma de decisiones. Es necesario que en cada área de negocio dispongan de la información precisa, en el momento adecuado.

Otro factor fundamental es el de la formación de los empleados. Es sumamente importante crear y desarrollar una cultura de innovación en la empresa y para ello hay que invertir en dar a los profesionales el conocimiento que necesitan para sacar el máximo partido de las tecnologías analíticas y la información que se genera en la empresa. La analítica debe ser parte esencial de cada área de negocio. Tenemos que animar a los empleados a innovar y fomentar la colaboración tanto externa como interna proporcionándoles el mejor acceso a los datos y la información.

En definitiva, cualquier organización, pública o privada, de cualquier industria puede disfrutar de las ventajas que aportan las tecnologías analíticas para acceder a un mayor conocimiento a través de los datos recogidos. A medida que vayan adoptando las herramientas analíticas y las aplicaciones que surjan de la computación cognitiva.

Hoy en día, los humanos todavía están haciendo la mayor parte del trabajo, pero la automatización está ganando soporte. Los datos de las fuentes existentes se pueden combinar de una manera fácil. El consumidor trabaja ejecutando consultas, luego obtiene información al interactuar con representaciones visuales de datos y construye modelos para predecir tendencias o resultados futuros. Todo esto está gestionado y controlado por personas a un nivel muy granular. La inclusión de la recopilación de datos, la detección de datos y el aprendizaje automático brindan al usuario final más opciones en un marco de tiempo más rápido que nunca.

La analítica se impregna en todos los aspectos de nuestras vidas. Independientemente de la pregunta que haga, ya sea sobre empleados o empresas, o qué les gusta o no les gusta a los clientes y cómo eso influye en su comportamiento, la analítica le brinda respuestas y le ayuda a tomar decisiones fundamentadas.

Post tag :

Compartir :

Facebook
Twitter
LinkedIn

Curso relacionado

Categorías

Publicaciones recientes

Síguenos

Tal vez te interese