Los datos de los clientes, mercados, productos, servicios, etc. representa uno de los activos más valiosos de una organización. Es tal la importancia que la calidad de los servicios depende en gran medida de la calidad de los datos que se manejen.
La información y el conocimiento que usan las organizaciones son el resultado del procesamiento de datos y ahí es donde se diferencian. Observamos que las organizaciones más exitosas –hay públicas– además de una buena administración, tienen una eficiente infraestructura que les provee de un efectivo servicio de datos y hacen un manejo inteligente de la información.
Por el contrario, las que muestran servicios deficientes –hay privadas– cuentan con bases de datos incompleta y desintegradas.
Mucho ha cambiado el panorama de los servicios de datos de una organización, de aquel no tan lejano en que los datos eran solamente numéricos y textuales, de volumen organizado eficientemente en bases de datos relacionales, con lenguajes de consulta como el SQL.
Ahora el panorama es complejo, abrumador en cuanto a la cantidad y naturaleza de los datos (con predominio de imágenes, videos o señales de sensores) y le plantea problemas a las organizaciones para adaptarse a manejar nuevas estructuras de organización y almacenamiento –de muy grandes volúmenes de datos y diversa naturaleza– que se ha dado en llamarlas “No-SQL”.
Se requieren nuevas herramientas de consulta y análisis de big data y nuevas formas de visualizar la información y el conocimiento que se infiere de esos gigantescos repositorios, hasta llegar a algunos que se ven mejor con el uso de fractales. Su gestión también ya requiere de un gerente de datos.
La ciencia de datos en evolución viene en nuestra ayuda, con la teoría, los métodos, las herramientas y algoritmos necesarios para tratar esa complejidad, y en el país ya se cuenta con más especialistas.