

¿QUÉ ES LA ALFABETIZACIÓN DE DATOS?
La alfabetización de datos es la capacidad de leer, escribir y comunicar datos en contexto, incluida una comprensión de las fuentes de datos y construcciones, métodos analíticos y técnicas aplicadas, y la capacidad de describir el caso de uso aplicación y valor resultante.
PASO #1: ESTABLECER UNA LÍNEA DE BASE UTILIZANDO DATOS DE REGISTRO
Recopile datos de registro de sus herramientas de BI para comparar las tasas actuales de adopción y uso
PASO #2: IDENTIFIQUE GRUPOS QUE NO USAN DATOS
Utilizando los datos consolidades de logs, identificar grupos y usuarios con el mas bajo nivel de compromiso.
PASO #3: EVALUAR DATOS LITERATURA
Llevar a cabo una evaluación de la alfabetización de datos. Identifica necesidades únicas de grupos con diferentes niveles de habilidad.
PASO #4: IDENTIFIQUE CAMPEONES EN DATOS
Identifique usuarios avanzados y departamentos altamente calificados. Reclutar campeones de datos.
PASO #5: CREAR RECURSOS EDUCACIONALES
Entreviste campeones, grabe videos sobre mejores prácticas, crear casos de uso, consejos y trucos que ayudarán a educar otros grupos.
PASO #6: LANZAR UNA CAMPANA EDUCATIVA.
Enseñe y distribuya los recursos educacionales a lo largo de la organización.
PASO #7: MEDIR EL PROGRESO: EJECUTAR Y REPETIR.
Mida los cambios y adopciones sobre el rendimiento del negocio. Realice otra evaluación de habilidades.
Los algoritmos y el software de Dongarra impulsaron el crecimiento de la computación de alto rendimiento y tuvieron un impacto significativo en muchas áreas de la ciencia computacional, desde la IA hasta los gráficos por ordenador
Nueva York, NY, 30 de marzo de 2022 – ACM, la Asociación para la Maquinaria Informática, ha nombrado hoy a Jack J. Dongarra ganador del Premio ACM A.M. Turing 2021 por sus contribuciones pioneras a los algoritmos numéricos y las bibliotecas que permitieron que el software de computación de alto rendimiento siguiera el ritmo de las mejoras exponenciales del hardware durante más de cuatro décadas. Dongarra es profesor distinguido de informática en el Departamento de Ingeniería Eléctrica e Informática de la Universidad de Tennessee. También es miembro del Oak Ridge National Laboratory y de la Universidad de Manchester.
El premio ACM A.M. Turing, a menudo a denominado «Premio Nobel de la Informática», está dotado con un millón de dólares y cuenta con el apoyo financiero de Google, Inc. Lleva el nombre de Alan M. Turing, el matemático británico que articuló los fundamentos matemáticos y los límites de la informática.
Dongarra ha liderado el mundo de la computación de alto rendimiento gracias a sus contribuciones a los algoritmos numéricos eficientes para las operaciones de álgebra lineal, los mecanismos de programación de la computación paralela y las herramientas de evaluación del rendimiento. Durante casi cuarenta años, la Ley de Moore produjo un crecimiento exponencial del rendimiento del hardware. Durante ese mismo tiempo, mientras la mayor parte del software no pudo seguir el ritmo de estos avances del hardware, el software numérico de alto rendimiento sí lo hizo, en gran parte gracias a los algoritmos, las técnicas de optimización y las implementaciones de software de calidad de producción de Dongarra.
Estas contribuciones establecieron un marco a partir del cual los científicos e ingenieros hicieron importantes descubrimientos e innovaciones que cambiaron el juego en áreas como el análisis de grandes datos, la salud, la energía renovable, la predicción del tiempo, la genómica y la economía, por nombrar algunas. El trabajo de Dongarra también ayudó a facilitar los avances en la arquitectura de los ordenadores y apoyó las revoluciones en los gráficos por ordenador y el aprendizaje profundo.
La mayor contribución de Dongarra fue la creación de bibliotecas y estándares de software de código abierto que emplean el álgebra lineal como un lenguaje intermedio que puede ser utilizado por una amplia variedad de aplicaciones. Estas bibliotecas se han escrito para procesadores individuales, ordenadores paralelos, nodos multinúcleo y múltiples GPU por nodo. Las bibliotecas de Dongarra también introdujeron muchas innovaciones importantes, como el autoajuste, la aritmética de precisión mixta y los cálculos por lotes.
Como principal embajador de la computación de alto rendimiento, Dongarra se encargó de convencer a los proveedores de hardware para que optimizaran estos métodos y a los desarrolladores de software para que utilizaran sus bibliotecas de código abierto en su trabajo. En última instancia, estos esfuerzos dieron lugar a que las bibliotecas de software basadas en el álgebra lineal lograran una adopción casi universal para la computación científica y de ingeniería de alto rendimiento en máquinas que van desde los ordenadores portátiles hasta los superordenadores más rápidos del mundo. Estas bibliotecas fueron esenciales para el crecimiento del campo, permitiendo que ordenadores cada vez más potentes resolvieran problemas computacionales difíciles.
«Los superordenadores más rápidos de hoy en día acaparan los titulares de los medios de comunicación y despiertan el interés del público al realizar hazañas alucinantes de un cuatrillón de cálculos en un segundo», explica la presidenta de la ACM, Gabriele Kotsis. «Pero más allá del comprensible interés por la superación de nuevos récords, la computación de alto rendimiento ha sido un importante instrumento de descubrimiento científico. Las innovaciones de la computación de alto rendimiento también se han extendido a muchas áreas diferentes de la informática y han hecho avanzar todo nuestro campo». Jack Dongarra desempeñó un papel fundamental en la dirección de la exitosa trayectoria de este campo. Su trabajo pionero se remonta a 1979 y sigue siendo uno de los líderes más destacados y comprometidos de la comunidad de la HPC. Su carrera ejemplifica sin duda el reconocimiento del Premio Turing a las «grandes contribuciones de importancia duradera»».
«El trabajo de Jack Dongarra ha cambiado fundamentalmente y ha hecho avanzar la computación científica», dijo Jeff Dean, Senior Fellow de Google y SVP de Google Research y Google Health. «Su profundo e importante trabajo en el núcleo de las bibliotecas numéricas más utilizadas del mundo subyace en todas las áreas de la computación científica, ayudando a avanzar en todo, desde el descubrimiento de fármacos hasta la predicción del tiempo, la ingeniería aeroespacial y docenas de campos más, y su profundo enfoque en la caracterización del rendimiento de una amplia gama de ordenadores ha llevado a importantes avances en las arquitecturas de los ordenadores que son muy adecuadas para los cálculos numéricos.»
Dongarra recibirá formalmente el premio ACM A.M. Turing en el banquete anual de premios de la ACM, que este año se celebrará el sábado 11 de junio en el Hotel Palace de San Francisco
CONTRIBUCIONES TÉCNICAS SELECTAS
Durante más de cuatro décadas, Dongarra ha sido el principal implementador o investigador de muchas bibliotecas como LINPACK, BLAS, LAPACK, ScaLAPACK, PLASMA, MAGMA y SLATE. Estas librerías se han escrito para procesadores individuales, ordenadores paralelos, nodos multinúcleo y múltiples GPU por nodo. Sus bibliotecas de software se utilizan, prácticamente de forma universal, para el cálculo científico y de ingeniería de alto rendimiento en máquinas que van desde los ordenadores portátiles hasta los superordenadores más rápidos del mundo.
Estas bibliotecas incorporan numerosas innovaciones técnicas de gran calado, como: Autotuning: a través de su proyecto ATLAS, premiado en la Conferencia de Supercomputación de 2016, Dongarra fue pionero en la búsqueda automática de parámetros algorítmicos que producen núcleos de álgebra lineal de eficiencia casi óptima, a menudo superando los códigos suministrados por los proveedores.
Aritmética de precisión mixta: En su artículo de la Conferencia de Supercomputación de 2006, «Exploiting the Performance of 32 bit Floating Point Arithmetic in Obtaining 64 bit Accuracy», Dongarra fue pionero en el aprovechamiento de las múltiples precisiones de la aritmética de punto flotante para ofrecer soluciones precisas con mayor rapidez. Este trabajo se ha convertido en un elemento fundamental en las aplicaciones de aprendizaje automático, como se ha demostrado recientemente en la prueba de referencia HPL-AI, que ha alcanzado niveles de rendimiento sin precedentes en los mejores superordenadores del mundo.
Cálculos por lotes: Dongarra fue pionero en el paradigma de dividir los cálculos de grandes matrices densas, que se utilizan habitualmente en simulaciones, modelado y análisis de datos, en muchos cálculos de tareas más pequeñas en bloques que pueden calcularse de forma independiente y concurrente. Basándose en su artículo de 2016, «Performance, design, and autotuning of batched GEMM for GPUs», Dongarra dirigió el desarrollo del estándar Batched BLAS para este tipo de cálculos, y también aparecen en las bibliotecas de software MAGMA y SLATE.
Dongarra ha colaborado a nivel internacional con muchas personas en los esfuerzos mencionados, siempre en el papel de impulsor de la innovación desarrollando continuamente nuevas técnicas para maximizar el rendimiento y la portabilidad, al tiempo que se mantienen resultados numéricamente fiables utilizando las técnicas más avanzadas. Otros ejemplos de su liderazgo son la interfaz de paso de mensajes (MPI), el estándar de facto para el paso de mensajes portátil en arquitecturas de computación paralela, y la API de rendimiento (PAPI), que proporciona una interfaz que permite la recopilación y síntesis del rendimiento de los componentes de un sistema heterogéneo. Los estándares que ayudó a crear, como MPI, el LINPACK Benchmark y la lista Top500 de superordenadores, sustentan tareas computacionales que van desde la predicción del tiempo hasta el cambio climático, pasando por el análisis de datos de experimentos de física a gran escala.
Antecedentes biográficos
Jack J. Dongarra es profesor distinguido de la Universidad de Tennessee y miembro distinguido del personal de investigación del Laboratorio Nacional de Oak Ridge desde 1989. También ha sido becario Turing en la Universidad de Manchester (Reino Unido) desde 2007. Dongarra se licenció en Matemáticas por la Universidad Estatal de Chicago, obtuvo un máster en Informática por el Instituto Tecnológico de Illinois y un doctorado en Matemáticas Aplicadas por la Universidad de Nuevo México.
Dongarra ha recibido, entre otros, el premio IEEE Computer Pioneer, el premio SIAM/ACM en Ciencia e Ingeniería Computacional y el premio ACM/IEEE Ken Kennedy. Es miembro de la ACM, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), la Sociedad de Matemáticas Industriales y Aplicadas (SIAM), la Asociación Americana para el Avance de la Ciencia (AAAS), la Conferencia Internacional de Supercomputación (ISC) y el Instituto Internacional de Ingeniería y Tecnología (IETI). Es miembro de la Academia Nacional de Ingeniería y miembro extranjero de la Real Sociedad Británica.
Acerca del Premio A.M. Turing de la ACM
El Premio A.M. Turing lleva el nombre de Alan M. Turing, el matemático británico que articuló los fundamentos matemáticos y los límites de la informática, y que fue un colaborador clave en el criptoanálisis aliado de la clave Enigma durante la Segunda Guerra Mundial. Desde su creación en 1966, el Premio Turing ha honrado a los científicos e ingenieros informáticos que crearon los sistemas y los fundamentos teóricos subyacentes que han impulsado la industria de la tecnología de la información.
Acerca de ACM
ACM, la Association for Computing Machinery, es la mayor sociedad educativa y científica de informática del mundo, que une a educadores, investigadores y profesionales para inspirar el diálogo, compartir recursos y abordar los retos de este campo. ACM refuerza la voz colectiva de la profesión informática a través de un fuerte liderazgo, la promoción de los más altos estándares y el reconocimiento de la excelencia técnica. La ACM apoya el crecimiento profesional de sus miembros ofreciéndoles oportunidades de aprendizaje permanente, desarrollo de su carrera y creación de redes profesionales.
La ciencia busca las leyes básicas de la naturaleza. Las matemáticas buscan nuevos teoremas que se basen en los antiguos. La ingeniería construye sistemas para resolver las necesidades humanas. Las tres disciplinas son interdependientes pero distintas. Es muy raro que una persona haga simultáneamente contribuciones fundamentales a las tres, pero Claude Shannon era una persona rara.
A pesar de ser el protagonista del reciente documental The Bit Player -y de que su trabajo y filosofía de investigación han inspirado mi propia carrera- Shannon no es precisamente un nombre conocido. Nunca ganó un Premio Nobel y no era una celebridad como Albert Einstein o Richard Feynman, ni antes ni después de su muerte en 2001. Pero hace más de 70 años, en un único e innovador artículo, sentó las bases de toda la infraestructura de comunicación que subyace a la era moderna de la información.
Shannon nació en Gaylord, Michigan, en 1916, hijo de un empresario local y una profesora. Tras licenciarse en ingeniería eléctrica y matemáticas por la Universidad de Michigan, escribió una tesis de máster en el Instituto Tecnológico de Massachusetts que aplicaba una disciplina matemática llamada álgebra de Boole al análisis y la síntesis de circuitos de conmutación. Fue un trabajo transformador, que convirtió el diseño de circuitos de un arte a una ciencia, y ahora se considera que fue el punto de partida del diseño de circuitos digitales.
A continuación, Shannon puso la mira en un objetivo aún mayor: la comunicación.
Claude Shannon escribió una tesis de maestría que puso en marcha el diseño de circuitos digitales, y una década más tarde escribió su documento seminal sobre la teoría de la información, «Una teoría matemática de la comunicación».
La comunicación es una de las necesidades humanas más básicas. Desde las señales de humo hasta las palomas mensajeras, pasando por el teléfono y la televisión, el ser humano siempre ha buscado métodos que le permitieran comunicarse más lejos, más rápido y de forma más fiable. Pero la ingeniería de los sistemas de comunicación siempre estuvo ligada a la fuente y el medio físico específicos. Shannon, en cambio, se preguntó: «¿Existe una gran teoría unificada para la comunicación?». En una carta de 1939 a su mentor, Vannevar Bush, Shannon esbozó algunas de sus ideas iniciales sobre «las propiedades fundamentales de los sistemas generales para la transmisión de inteligencia». Tras trabajar en el problema durante una década, Shannon publicó finalmente su obra maestra en 1948: «Una teoría matemática de la comunicación».
El núcleo de su teoría es un modelo sencillo pero muy general de comunicación: Un transmisor codifica la información en una señal, que es corrompida por el ruido y decodificada por el receptor. A pesar de su simplicidad, el modelo de Shannon incorpora dos ideas clave: aislar las fuentes de información y de ruido del sistema de comunicación que se va a diseñar, y modelar ambas fuentes de forma probabilística. Imaginó que la fuente de información generaba uno de los muchos mensajes posibles para comunicar, cada uno de los cuales tenía una determinada probabilidad. El ruido probabilístico añadía más aleatoriedad para que el receptor pudiera desentrañar.
Antes de Shannon, el problema de la comunicación se consideraba principalmente un problema de reconstrucción de señales deterministas: cómo transformar una señal recibida, distorsionada por el medio físico, para reconstruir el original con la mayor precisión posible. La genialidad de Shannon reside en su observación de que la clave de la comunicación es la incertidumbre. Al fin y al cabo, si supiera de antemano lo que le voy a decir en esta columna, ¿qué sentido tendría escribirla?

Diagrama esquemático del modelo de comunicación de Shannon, extraído de su documento.
Esta única observación desplazó el problema de la comunicación de lo físico a lo abstracto, permitiendo a Shannon modelar la incertidumbre utilizando la probabilidad. Esto supuso un shock total para los ingenieros de comunicación de la época.
En este marco de incertidumbre y probabilidad, Shannon se propuso determinar sistemáticamente el límite fundamental de la comunicación. Su respuesta se divide en tres partes. El concepto de «bit» de información, utilizado por Shannon como unidad básica de incertidumbre, desempeña un papel fundamental en las tres. Un bit, que es una abreviatura de «dígito binario», puede ser un 1 o un 0, y el documento de Shannon es el primero en utilizar la palabra (aunque él dijo que el matemático John Tukey la utilizó primero en un memorando).
En primer lugar, Shannon ideó una fórmula para el número mínimo de bits por segundo para representar la información, un número que denominó tasa de entropía, H. Este número cuantifica la incertidumbre que supone determinar qué mensaje generará la fuente. Cuanto menor sea la tasa de entropía, menor será la incertidumbre y, por tanto, más fácil será comprimir el mensaje en algo más corto. Por ejemplo, enviar mensajes de texto a un ritmo de 100 letras inglesas por minuto significa enviar uno de los 26100 mensajes posibles cada minuto, cada uno representado por una secuencia de 100 letras. Se podrían codificar todas estas posibilidades en 470 bits, ya que 2470 ≈ 26100. Si las secuencias fueran igualmente probables, la fórmula de Shannon diría que la tasa de entropía es efectivamente de 470 bits por minuto. En realidad, algunas secuencias son mucho más probables que otras, y la tasa de entropía es mucho menor, lo que permite una mayor compresión.
En segundo lugar, proporcionó una fórmula para el número máximo de bits por segundo que pueden comunicarse de forma fiable frente al ruido, que denominó capacidad del sistema, C. Se trata de la velocidad máxima a la que el receptor puede resolver la incertidumbre del mensaje, lo que la convierte en el límite de velocidad de la comunicación.
Por último, demostró que la comunicación fiable de la información de la fuente frente al ruido es posible si y sólo si H < C. Así, la información es como el agua: Si el caudal es inferior a la capacidad de la tubería, la corriente pasa de forma fiable.
Aunque se trata de una teoría de la comunicación, es, al mismo tiempo, una teoría de cómo se produce y transfiere la información: una teoría de la información. Por eso Shannon es considerado hoy «el padre de la teoría de la información».
Sus teoremas condujeron a algunas conclusiones contraintuitivas. Supongamos que usted está hablando en un lugar muy ruidoso. ¿Cuál es la mejor manera de asegurarse de que su mensaje llega? ¿Quizás repetirlo muchas veces? Ése es sin duda el primer instinto de cualquiera en un restaurante ruidoso, pero resulta que no es muy eficaz. Seguro que cuantas más veces te repitas, más fiable será la comunicación. Pero has sacrificado la velocidad por la fiabilidad. Shannon nos mostró que podemos hacerlo mucho mejor. Repetir un mensaje es un ejemplo de utilizar un código para transmitir un mensaje, y utilizando códigos diferentes y más sofisticados, se puede comunicar rápidamente – hasta el límite de velocidad, C – manteniendo cualquier grado de fiabilidad.
Otra conclusión inesperada que se desprende de la teoría de Shannon es que, sea cual sea la naturaleza de la información (un soneto de Shakespeare, una grabación de la Quinta Sinfonía de Beethoven o una película de Kurosawa), siempre es más eficaz codificarla en bits antes de transmitirla. Así, en un sistema de radio, por ejemplo, aunque tanto el sonido inicial como la señal electromagnética enviada por el aire son formas de onda analógicas, los teoremas de Shannon implican que lo óptimo es digitalizar primero la onda sonora en bits, y luego mapear esos bits en la onda electromagnética. Este sorprendente resultado es la piedra angular de la moderna era de la información digital, en la que el bit reina como moneda universal de la información.

Shannon también tenía un lado lúdico, que a menudo llevaba a su trabajo. Aquí, posa con un laberinto que construyó para un ratón electrónico, llamado Theseus.
La teoría general de la comunicación de Shannon es tan natural que es como si hubiera descubierto las leyes de la comunicación del universo, en lugar de inventarlas. Su teoría es tan fundamental como las leyes físicas de la naturaleza. En ese sentido, era un científico.
Shannon inventó nuevas matemáticas para describir las leyes de la comunicación. Introdujo nuevas ideas, como la tasa de entropía de un modelo probabilístico, que se han aplicado en ramas matemáticas de gran alcance, como la teoría ergódica, el estudio del comportamiento a largo plazo de los sistemas dinámicos. En ese sentido, Shannon era un matemático.
Pero, sobre todo, Shannon era un ingeniero. Su teoría estaba motivada por problemas prácticos de ingeniería. Y aunque era esotérica para los ingenieros de su época, la teoría de Shannon se ha convertido en el marco estándar en el que se basan todos los sistemas de comunicación modernos: ópticos, submarinos e incluso interplanetarios. Personalmente, he tenido la suerte de formar parte de un esfuerzo mundial por aplicar y ampliar la teoría de Shannon a la comunicación inalámbrica, aumentando la velocidad de las comunicaciones en dos órdenes de magnitud a lo largo de múltiples generaciones de estándares. De hecho, el estándar 5G que se está implantando actualmente utiliza no uno, sino dos códigos prácticos probados para alcanzar el límite de velocidad de Shannon.

Aunque Shannon murió en 2001, su legado sigue vivo en la tecnología que conforma nuestro mundo moderno y en los dispositivos que creó, como este autobús teledirigido
Shannon descubrió la base de todo esto hace más de 70 años. ¿Cómo lo hizo? Centrándose implacablemente en la característica esencial de un problema e ignorando todos los demás aspectos. La simplicidad de su modelo de comunicación es una buena ilustración de este estilo. También sabía centrarse en lo que es posible, más que en lo que es inmediatamente práctico.
El trabajo de Shannon ilustra el verdadero papel de la ciencia de alto nivel. Cuando empecé a estudiar en la universidad, mi asesor me dijo que el mejor trabajo era podar el árbol del conocimiento, en lugar de hacerlo crecer. Entonces no sabía qué pensar de este mensaje; siempre pensé que mi trabajo como investigador era añadir mis propias ramitas. Pero a lo largo de mi carrera, cuando tuve la oportunidad de aplicar esta filosofía en mi propio trabajo, empecé a entenderlo.
Cuando Shannon empezó a estudiar la comunicación, los ingenieros ya tenían una gran colección de técnicas. Fue su trabajo de unificación el que podó todas estas ramitas de conocimiento en un único árbol coherente y encantador, que ha dado sus frutos a generaciones de científicos, matemáticos e ingenieros.
Aunque el primer director de datos se contrató hace casi 20 años, muchas organizaciones están empezando a darse cuenta del valor de los datos y buscan a alguien que supervise sus operaciones de datos.
La función de director de datos se desarrolló cuando las organizaciones empezaron a darse cuenta del valor de los datos.
Capital One contrató al primer Chief Data Officer (CDO) conocido en 2002, pero hasta hace 10 años esta función seguía siendo bastante rara. Desde entonces, sin embargo, las organizaciones se han dado cuenta de que los datos son un activo, y muchas han tomado medidas para maximizar su valor, incluyendo la contratación de un director de datos.
La necesidad de un director de datos surgió porque, cuando las organizaciones comenzaron el proceso de obtener valor de los datos, éstos solían estar desorganizados. Por lo tanto, las organizaciones necesitaban a alguien que supervisara la tarea, a veces monumental, de unir datos de fuentes dispares y convertirlos en una herramienta funcional para impulsar el proceso de toma de decisiones.
En los años transcurridos desde entonces, la función se ha hecho más común, y la responsabilidad del director de datos es permitir que las organizaciones obtengan el máximo valor de sus datos.
Un estudio de NewVantage Partners publicado en enero de 2021 reveló que el 76 % de lo que denominó empresas de primer orden –grandes corporaciones como American Express, Bank of America, Capital One, Cigna, JPMorgan Chase, Liberty Mutual, Mastercard, McDonalds, Visa y Walmart– tienen ahora directores de datos y/o directores de análisis, frente al 12 % en 2012 y el 65 % en 2020.
Pero mientras que las grandes empresas, y sectores enteros como los servicios financieros, han estado a la vanguardia de la contratación de directores de datos, otros, como las organizaciones educativas, están empezando a reconocer la importancia de la función y a incorporar directores de datos a sus plantillas. La misma encuesta de NewVantage Partners reveló que solo el 24,4 % de los encuestados afirma haber forjado una cultura de datos y el 24 % dice haber creado una organización basada en los datos.
La pandemia, por su parte, ha puesto de manifiesto el valor de los datos.
Recientemente, Cindi Howson, directora de estrategia de datos del proveedor de análisis ThoughtSpot y presentadora del podcast The Data Chief, se tomó el tiempo de hablar sobre el papel del director de datos. En una entrevista, explica cómo se originó la función, cómo ha evolucionado desde entonces y hacia dónde puede dirigirse.
¿Cuáles son las responsabilidades de un director de datos?
Cindi Howson: Un director de datos es una persona que, en la primera generación, puso en orden la casa de datos de una empresa, reuniendo los datos bajo un paraguas en lugar de en silos, asegurándose de que estuvieran seguros. El cambio, una vez que la empresa ha hecho eso, es obtener valor de sus datos. En este punto, a veces se produce una bifurcación de funciones entre el director de datos y el director de análisis. Incluso vemos que algunos combinan estos términos para convertir a alguien en un CDAO [chief data and analytics officer]. Pero la cuestión es obtener valor empresarial de los datos.
¿Qué diferencia hay entre un director de datos y un director de análisis?
Howson: Si pensamos que el objetivo de los datos es extraer valor de ellos, no debería haber ninguna diferencia. Yo los veo como una misma cosa. Se trata de una maduración del papel: un CDO maduro es el director de análisis. Dicho esto, hay algunas organizaciones en las que el director de análisis se ocupa mucho más del lado de la ciencia de los datos de las organizaciones, pero en última instancia el director de análisis debería ser responsable de organizar los datos, salvaguardarlos, aplicarlos al valor del negocio y crear productos de datos. Si no lo están haciendo, será mejor que lo haga otro.
¿Cuándo empezó a surgir el papel de director de datos y por qué?
Howson: Algunos de los primeros directores de datos se encontraban en los servicios financieros, en algunas de las empresas de tarjetas de crédito, y se dieron cuenta de que estaban recogiendo muchos datos, pero estaban aislados y el departamento de TI los controlaba y los almacenaba y capturaba. Pero limpiarlos y hacerlos utilizables requería un conjunto de habilidades ligeramente diferente. Por eso también se está viendo que las líneas de información del CDO cambian con el tiempo. Originalmente, la función surgió de TI –y muchos CDO todavía dependen del CIO–, pero cada vez se ve más que el CDO
depende del CEO o del director digital.
¿Qué tan común es esta función ahora?
Howson: Depende de la encuesta que se mire, y algunos sectores están mucho más maduros. En general, si miro todas las encuestas –Bain, Gartner, NewVantage Partners– diría que dos tercios de las organizaciones con muchos datos tienen un CDO. Pero hay algunas empresas grandes, multimillonarias, que no tienen un CDO. He visto que Peloton está contratando a su primer CDO, y mira su crecimiento en el último año. El año pasado, fue la primera vez que el CDC dijo que necesitaba un CDO; su casa de datos definitivamente no está en orden. Y ahora, en los últimos años, todas las agencias federales tienen su propio CDO, pero si nos remontamos a cinco años atrás eso no existía.
¿Qué organizaciones necesitan un director de datos y cuáles pueden prescindir de él?
Howson: Creo que todas las empresas que quieren estar orientadas a los datos necesitan un CDO, pero ¿las empresas que no están orientadas a los datos van a sobrevivir? Si nos preguntamos si una organización más pequeña necesita un CDO, esa responsabilidad puede residir en alguien que desempeñe una doble función. En un restaurante, podría ser el director de operaciones, o podrían tenerlo externalizado a través de una agencia que proporcione un CDO virtual. Todos necesitan datos. Puede que no tengan a alguien con el título de CDO, pero tendrán a alguien que tenga la responsabilidad de almacenar los datos, protegerlos y luego extraer valor de ellos.
Antes ha mencionado los sectores: ¿hay algunos sectores en los que se contratan más directores de datos que en otros?
Howson: Casi coincide con la madurez de los datos y el análisis de la industria. Si pensamos en los servicios financieros y en los viajes, ambos son sectores con gran cantidad de datos y tienden a tener directores de datos. En el otro extremo del espectro, los sectores menos maduros en cuanto a datos y análisis tienden, por desgracia, a ser los más importantes, como el de la educación y el de los proveedores de servicios sanitarios, que son muy diferentes de los pagadores de servicios sanitarios. Los pagadores de seguros son más maduros, pero los proveedores como los grandes sistemas hospitalarios –la
Clínica Mayo acaba de contratar a su primer CDO, por ejemplo– no lo son.
¿Qué es lo que un director de datos permite hacer a una organización con sus datos que no puede hacer una organización sin un director de datos?
Howson: Aquí es donde el CDO es un conector y un colaborador. Cuando se piensa en la captura de datos, está muy aislada. Tomemos como ejemplo una gran organización minorista. El comercio minorista es un sector muy rico en datos, pero tiene a los departamentos de ventas y marketing haciendo campañas publicitarias y de marketing, y luego tiene a los gestores de la cadena de suministro, a los comercializadores y a los sistemas de gestión de personal, y todos estos sistemas operativos están separados. Ahora, imagina que quieres intentar averiguar cómo dotar de personal a un almacén o a una entrega de comercio electrónico frente a cómo dotar de personal a las tiendas físicas. Tendrá que buscar en todos esos silos para averiguar la demanda, ver dónde se encuentran los empleados, averiguar si hay que hacer un anuncio y, si lo hace, averiguar si hay suficiente producto disponible. Necesitas esos datos en un lugar común, y si no los tuvieras nunca obtendrías ninguna visibilidad, ya sea una visión de 360 grados de los clientes, análisis de la cadena de suministro o análisis de la mano de obra.
¿Siguen existiendo obstáculos que los directores de datos tienen que superar en sus funciones o los directores de datos son ya aceptados en algunas partes de la jerarquíaorganizativa?
Howson: Ser un CDO es a la vez el mejor trabajo y el peor. Es el mejor trabajo porque el mundo se ha dado cuenta de la importancia absoluta de los datos para nuestra sociedad y para todas las empresas. Algunas personas con visión de futuro se han dado cuenta de ello en los últimos años, pero la pandemia, desde el punto de vista de las operaciones empresariales hasta el punto de vista de la atención sanitaria, ha lanzado los datos al centro del escenario. No se puede encender la televisión o leer un periódico donde no se hable de datos en algún contexto. Esto es una buena noticia para los CDO.
La mala noticia es que es uno de los trabajos más difíciles. Tienes que conocer la tecnología, hay grandes riesgos en las implicaciones y tienes que conocer el negocio. La empresa te empuja a hacer más, más rápido, y pide a los CDO que rompan las barreras, innoven y asuman riesgos. Pero el departamento de TI dice: «Vaya, esto es peligroso», por lo que se les presiona desde ambos lados, y creo que los CDO se agotan y se machacan, por lo que es un papel con mucha rotación.
¿Cuál es el panorama de los directores de datos? ¿Se convertirá en una función tan común como la del director financiero u otra función de la dirección?
Howson: Si eres una organización nativa digital, ¿tendrás realmente una función de CDO? Por ejemplo, acabo de tener como invitado en mi podcast al director de algoritmos, que es un avance del director de análisis, de Daily Harvest. Ellos no tienen un CDO formal. Necesita datos para crear los algoritmos. Es solo parte del proceso, y tal vez su casa de datos estaba en orden desde el principio en lugar de tenerlo construido en los sistemas transaccionales en las instalaciones. Entonces se convierte realmente en un producto de datos. Si se piensa en pasar de los datos a la información, es algo que se da por hecho, mientras que en el mundo predigital estaba mucho más orientado al proceso.
La planificación ha sido durante mucho tiempo una de las piedras angulares de la gestión. A principios del siglo XX, Henri Fayol definió la labor de los directivos como planificar, organizar, dirigir, coordinar y controlar. La capacidad y la voluntad de los directivos de planificar se desarrollaron a lo largo del siglo. La Dirección por Objetivos (DPO) se convirtió en el punto álgido de la moda empresarial a finales de la década de 1950. El mundo parecía predecible. El futuro podía planificarse. Por tanto, parecía sensato que los directivos identificaran sus objetivos. A continuación, podían centrarse en gestionar de forma que se alcanzaran esos objetivos.
Era el equivalente capitalista de los planes quinquenales del sistema comunista. De hecho, un teórico de la gestión de los años 60 sugirió que las organizaciones mejor gestionadas del mundo eran la Standard Oil Company de Nueva Jersey, la Iglesia Católica Romana y el Partido Comunista. La creencia era que si se trazaba el futuro, éste ocurriría.
Más tarde, el MBO evolucionó hacia la planificación estratégica. Las empresas crearon grandes unidades corporativas dedicadas a ello. Estaban deliberadamente desvinculadas de la realidad cotidiana de la empresa y hacían hincapié en los procedimientos formales en torno a los números. Henry Mintzberg definió la planificación estratégica como «un sistema formalizado para codificar, elaborar y hacer operativas las estrategias que las empresas ya tienen». La creencia fundamental seguía siendo que el futuro podía predecirse en gran medida.
Ahora, la planificación estratégica ha caído en desgracia. Ante los incesantes cambios tecnológicos, las fuerzas disruptivas de un sector tras otro, la competencia mundial, etc., la planificación parece una ilusión sin sentido.
Y sin embargo, la planificación es claramente esencial para cualquier empresa de cualquier tamaño. Observe su propia organización. El hecho de tener un lugar de trabajo equipado para ello, y de que usted y sus compañeros trabajen en un proyecto concreto en un momento y lugar determinados, requiere algún tipo de planificación. La realidad es que hay que hacer planes sobre el uso de los recursos de una empresa todo el tiempo. Algunos son a corto plazo, otros se extienden hasta un futuro imaginado.
Universalmente valiosa, pero desesperadamente pasada de moda, la planificación espera como una solterona en una novela de Jane Austen a que alguien reconozca su valor.
Pero los ejecutivos desconfían de la planificación porque les parece rígida, lenta y burocrática. El legado de Fayol persiste. Una encuesta de 2016 de HBR Analytics a 385 directivos reveló que la mayoría de los ejecutivos se sentían frustrados con la planificación porque creían que la velocidad era importante y que los planes cambiaban con frecuencia de todos modos. Para qué dedicarse a un ejercicio de planificación lento y doloroso si ni siquiera se va a seguir el plan?
Las frustraciones con las prácticas de planificación actuales se cruzan con otra tendencia de gestión fundamental: la agilidad organizativa. La reorganización en torno a pequeños equipos autogestionados -mejorados por métodos de agilidad como Scrum y LeSS- está surgiendo como la ruta hacia la agilidad organizativa necesaria para competir en la cambiante realidad empresarial. Uno de los principios clave que sustentan la agilidad basada en los equipos es que éstos deciden de forma autónoma sus prioridades y dónde asignar sus propios recursos.
La lógica de la planificación estratégica centralizada a largo plazo (realizada una vez al año en un momento fijo) es la antítesis de una organización rediseñada en torno a equipos que definen sus propias prioridades y la asignación de recursos semanalmente.
Pero si la planificación y la agilidad son necesarias, las organizaciones tienen que hacerlas funcionar. Tienen que crear un diagrama de Venn con la planificación en un lado, la agilidad en el otro, y un punto dulce práctico y viable en el medio. Por ello, la búsqueda de un replanteamiento de la planificación estratégica nunca ha sido más urgente y crítica. La planificación al estilo del siglo XXI debe reconcebirse como planificación ágil.
La planificación ágil tiene una serie de características:
- Marcos y herramientas capaces de hacer frente a un futuro que será diferente
- La capacidad de hacer frente a cambios más frecuentes y dinámicos
- La necesidad de invertir tiempo de calidad para una verdadera conversación estratégica en lugar de ser simplemente un juego de números;
- Disponibilidad de recursos y fondos de forma flexible para las oportunidades que surjan.
La intersección de la planificación con la agilidad organizativa genera otros dos requisitos primordiales:
Un proceso capaz de coordinarse y alinearse con los equipos ágiles
Las organizaciones ágiles se enfrentan al reto de gestionar la autonomía local de los escuadrones (aportación de abajo a arriba) de forma coherente con una visión más amplia representada por los objetivos de la tribu y por las interdependencias entre tribus y las
prioridades estratégicas de la organización (visión de arriba a abajo). Para controlar esta tensión se necesitan nuevos procesos y rutinas de planificación y coordinación.
Pensemos en la empresa holandesa de servicios financieros ING Bank. Reestructuró sus operaciones en los Países Bajos reorganizando a 3.500 empleados en escuadrones ágiles. Se trata de equipos multidisciplinares autónomos (hasta nueve personas por equipo) capaces de definir su trabajo y tomar decisiones empresariales con rapidez y flexibilidad. Los escuadrones se organizan en una Tribu (de no más de 150 personas), un conjunto de escuadrones que trabajan en áreas relacionadas.
ING Bank revisó su proceso e introdujo reuniones y formatos rutinarios para crear una alineación entre las tribus y dentro de ellas. Cada tribu elabora un QBR (Quarterly Business Review), un documento de seis páginas en el que se describen las prioridades, los objetivos y los resultados clave a nivel de tribu. A continuación, se discute en una gran reunión de alineación (denominada QBR Marketplace) a la que asisten los líderes de las tribus y otros dirigentes relevantes. En esta reunión se aborda una cuestión fundamental: cuando sumamos todo, ¿contribuye esto a los objetivos estratégicos de nuestra empresa?
La alineación dentro de una tribu se produce en lo que se denomina un evento de Mercado de Cartera: los representantes de cada una de las escuadras que componen la tribu se reúnen para acordar cómo se van a alcanzar los objetivos fijados y para abordar las oportunidades de sinergias.
El ejemplo de ING Bank muestra cómo el proceso de planificación sigue siendo necesario y esencial para una empresa ágil, aunque de forma diferente, con procesos, mecanismos y rutinas distintos.
A medida que más y más empresas se transformen en organizaciones ágiles, es probable que la planificación ágil se convierta en la nueva normalidad que sustituya al enfoque tradicional de planificación centralizada.
Un proceso que utiliza tanto datos duros ilimitados como el juicio humano
Tradicionalmente, los planificadores se han obsesionado con la recopilación de datos concretos sobre su sector, sus mercados y sus competidores. Los datos blandos -redes de contactos, conversaciones con clientes, proveedores y empleados, uso de la intuición y de la vid- han sido prácticamente ignorados.
A partir de los años 60, la planificación se construyó en torno al análisis. Ahora, gracias al Big Data, la capacidad de generar datos es prácticamente ilimitada. Esto no nos permite necesariamente crear mejores planes para el futuro.
Los datos blandos también son vitales. «Aunque los datos duros pueden informar al intelecto, son en gran medida los datos blandos los que generan sabiduría. Pueden ser difíciles de «analizar», pero son indispensables para la síntesis, la clave de la elaboración de la estrategia», dice Henry Mintzberg.
Las empresas tienen que imaginar primero las posibilidades y, en segundo lugar, elegir la que tenga el argumento más convincente. Para decidir cuál es el argumento más convincente, deben tener en cuenta todos los datos que se puedan obtener. Pero, además, deben utilizar el juicio cualitativo.
En una organización ágil, los equipos utilizan el pensamiento de diseño y otras técnicas exploratorias (además de los datos) para tomar decisiones rápidas y cambiar el rumbo semanalmente. La toma de decisiones la realiza un equipo de personas, compensando así los posibles sesgos de una sola persona que toma una decisión basada en su juicio individual. Hasta cierto punto, una organización ágil basada en equipos permite la posibilidad de aprovechar los datos cualitativos y el juicio -combinados hoy con infinitos datos duros- para tomar mejores decisiones.
Confiar únicamente en los datos duros ha matado, sin duda, a muchas grandes empresas en potencia. Por ejemplo, Nespresso, el pionero de las cápsulas de café desarrollado por Nestlé. Nespresso despegó cuando dejó de dirigirse a las oficinas y empezó a comercializar en los hogares. Había pocos datos sobre cómo responderían los hogares al concepto y la información disponible sugería un valor percibido por el consumidor de sólo 25 céntimos suizos, frente a un umbral exigido por la empresa de 40 céntimos. El equipo de Nespresso tuvo que interpretar los datos con habilidad para presentar un caso mejor a la alta dirección. Como creía firmemente en la idea, obligó a la empresa a asumir un riesgo mayor de lo habitual. Si Nestlé se hubiera guiado únicamente por un estudio de mercado cuantitativo, el concepto nunca habría despegado.
El enfoque tradicional de la planificación debe revisarse para servir mejor a los propósitos de la empresa ágil del siglo XXI. La planificación ágil es el futuro de la planificación. Este nuevo enfoque requerirá dos elementos fundamentales. En primer lugar, sustituir la tradicional obsesión por los datos duros y el juego de los números por una coexistencia más equilibrada de datos duros y blandos en la que el juicio también desempeñe un papel importante. En segundo lugar, la introducción de nuevos mecanismos y rutinas que garanticen la alineación entre los cientos de equipos locales autónomos autoorganizados y los objetivos y direcciones generales de la empresa.
Enero 2021
Ariel González Guerrero
La pandemia provocada por el virus COVID19 nos sorprendió a todos tanto a los seres humanos como a las organizaciones empresariales.
El COVID19 y sus secuelas, se convierte en un hecho no contemplado ni planificado dentro de los planes de las organizaciones, que obligaba en un corto plazo, a la mayoría de las empresas a cerrar sus puertas ante el público y a sus empleados a quedarse en sus casas.
Al inicio de la pandemia comenzaron a distinguirse el impacto de la pandemia basado en los giros de negocios de las empresas. Un gran parte de las empresas tuvo que cesar totalmente sus operaciones, otra parte operaba parcialmente y una minoría operaba totalmente. Los sectores relacionados a la salud, alimentación, seguridad, servicios públicos, tecnología, entre otros estaban dentro de esa minoría.
A partir de las medidas de confinamiento se inicia una etapa de adopción/transformación digital acelerada tanto por parte de las empresas como de la mayoria de los seres humanos.
En cuanto a las organizaciones, las que se encontraban en rubros que permitían operar, fortalecieron o desarrollaron medios digitales para mantener sus servicios. Se habilitaron los centros de asistencia (call center), los servicios en línea, las entregas a domicilio, los servicios de recogida en el establecimiento (pick up), se incrementó el uso de software hospedado en el Cloud (nube), entre otros aspectos. Si bien probablemente todo lo que se hizo o fortaleció, estaba en planes de desarrollo no es menos cierto que producto de la pandemia pasaron a ser prioridad y a realizarse en corto plazo.
En lo que respecta a las personas, en su gran mayoría han experimentado una actualización digital acelerada también. Excluyamos a aquellos que en su día a día conviven con los servicios digitales. Esa enorme franja de la población ha tenido que utilizar herramientas digitales para su quehacer cotidiano tanto laboral como familiar y personal.
A nivel laboral y si está dentro del grupo que pudo operar, pasaron a ‘trabajar en casa o trabajar remoto’. Para lograr esto se necesitaban herramientas de conectividad y servicios de internet y aparecen los actores destacados como las herramientas de conferencias virtuales (Zoom, Google Meet, Skype, Microsoft Teams, entre otras).
La firma consultora McKinsey expresaba en medio de la pandemia. “Las compañías que hacen las inversiones correctas ahora podrían construir una ventaja duradera en el servicio a clientes y empleados”
A nivel familiar y personal no se escapaba a esta realidad. Se potenciaron los servicios de compra en los supermercados para entrega en casa, los mini mercados, farmacias, tiendas al detalle, ferreterías, entre otros, potenciaron los medios digitales.
En lo que respecta a la educación, ha sido una de las áreas de mayor impacto; se ha tenido que implementar de forma acelerada los sistemas de educación virtual y los (LMS, Learning Management Systems). Un reto no solo para los estudiantes sino para todos los centros educativos. De forma inesperada el sistema o medio de enseñanza cambió.
Esta digitalización acelerada no solo tuvo impacto en los aspectos laborales y educativos, sino en las relaciones interpersonales. A partir de la extensión de la pandemia y el confinamiento se vio la necesidad de compartir con amigos y familiares y la única vía existente eras las herramientas virtuales de comunicación o conferencias. La mayoría del núcleo familiar, no importando la edad ni estrato social, comenzó utilizar a Whatasap y ZOOM principalmente para sus reuniones familiares y personales.
“El término ZOOM prácticamente se convirtió en un genérico relativo a reuniones virtuales”.
A partir de la liberación humana de la Pandemia, ¿Qué quedará?
Se tienen muchas ansias de volver a regresar a la rutina normal de vida. Ahora bien, durante este periodo se han tenido muchas enseñanzas y entendemos que desde el punto de vista de servicios digitales, varios de los aspectos que realizamos hoy en día se quedarán post COVID19.
A nivel social y familiar:
a) Los servicios utilizando plataformas digitales seguirán en aumento. Ya no hay vuelta atrás. Ahora será una constante el incorporar innovaciones a estos servicios.
b) Los procesos de higienización y protección personales y ambientales se mantendrán. Se ha visto como se han disminuidos los procesos virales diferentes a COVID19 producto de la protección que hemos tenido que implantar.
A nivel empresarial:
Quedarán muchos de los cambios que se han suscitados.
a) El trabajo en casa o trabajo remoto ya pasará a ser una opción viable para muchas organizaciones. Claro, dependerá de las condiciones de cada empleado. A partir de la normalidad se incorpora la opción de trabajar en casa sin que esto represente un día perdido o permiso. Incluso estando en el país o fuera del país.
b) Las reuniones tendrán cambios radicales. La mayoría de las reuniones se realizarán de forma virtual, no por aspectos de distanciamiento sino por la productividad de las mismas; y solo aquellas de importancia mayor se realizarán de forma presencial.
c) La innovación en los servicios digitales tendrá que mantener el mismo ritmo a partir del post COVID19. Ya existe un mercado consumidor más exigente, más informado y con mayor dominio en las herramientas tecnológicas. Este mercado va a demandar servicios digitales ágiles y de calidad.
d) Se pudo reconocer que existen muchas necesidades y problemáticas similares en todos los países. Ahora con los servicios digitales el mercado global se estrechó aún más. La oferta ya no debe ser para mercados locales sino mercados globales.
En resumen, este año de confinamiento y de crisis sanitaria mundial, ha conllevado a un acelerado proceso de cambios fundamentalmente en servicios digitales. Posiblemente cambios y conocimientos que iban a requerir 5 a 10 años se han tenido que adquirir en un solo año. COVID19, con toda su secuela negativa y de tristeza, ha empujado bruscamente los servicios digitales para el beneficio de la sociedad.
Por Maria Korolov
04 de Agosto 2020
El hecho de alentar a los empleados a que aprendan a conocer los datos puede beneficiar a cualquier empresa. Siga leyendo para conocer algunos de los beneficios y recursos que se pueden aprovechar en la construcción de esas habilidades.
Las investigaciones demuestran que las organizaciones basadas en datos tienen más éxito, pero los empleados suelen carecer de las aptitudes necesarias para manejar datos.
Según una encuesta realizada en 2020 por Sapio Research, el 80% de los responsables de la toma de decisiones consideraban que la apertura del acceso a los datos tiene un impacto positivo en sus organizaciones y el 74% dijo que los empleados tienen acceso a los datos que necesitan. Pero el 53% de los encuestados informó de la resistencia de los empleados a utilizar los datos.
Mientras tanto, las investigaciones han demostrado sistemáticamente que las empresas basadas en datos tienen más éxito. Una encuesta realizada en 2019 por McKinsey & Company, una empresa de consultoría de gestión, demostró que las empresas en las que los empleados utilizan sistemáticamente los datos en la toma de decisiones tienen una probabilidad 1,5 veces mayor de informar de un crecimiento de los ingresos de más del 10% en los últimos tres años.
La diferencia se reduce a la alfabetización de datos.
«Es crucial en el mundo actual, en el que los datos están omnipresentes», dijo Shreeni Srinivasan, director de analítica empresarial y entrega de aplicaciones de Sungard Availability Services. «La alfabetización de datos puede capacitar a los empleados para tomar decisiones analíticas basadas en hechos que están más fundamentadas en la realidad que las que se toman por instinto o por intuición».
Según la misma encuesta de McKinsey & Company, la proporción de ejecutivos de organizaciones de alto rendimiento que comprenden los conceptos de los datos es un 44% mayor, la proporción de gerentes que comprenden los datos es un 39% mayor y el número de empleados de primera línea que comprenden los datos es un 12% mayor que el de otras empresas encuestadas.
Sin embargo, existen importantes obstáculos para lograr la comprensión de los datos.
Según Gartner, el 50% de las organizaciones carecen de suficientes conocimientos
sobre datos para lograr el valor empresarial, y el 35% de los directores de datos dijeron
que la falta de conocimientos sobre datos es uno de los principales obstáculos para el
uso eficaz de los datos y el análisis, justo detrás de los desafíos culturales y la falta de
recursos y financiación.
¿Qué es la alfabetización de datos?
La alfabetización de datos es la habilidad de escribir y comprender datos de manera similar a como vemos la alfabetización con la lectura. Esto puede incluir la comprensión de la procedencia de los datos, la comunicación de la información derivada de los datos a otros y el conocimiento de dónde utilizar diferentes herramientas y métodos analíticos.
«Cuando las empresas tienen más empleados con conocimientos sobre datos, entienden que los datos ya no son sólo el dominio del equipo de datos», dijo Andrew Stewardson, gerente de datos de Farm Credit Services of America, un proveedor de crédito para operadores de granjas y ranchos con sede en Omaha, Neb. «Tener un mayor nivel de conocimiento de los datos significa que podemos servir mejor a nuestros clientes».
La organización de Stewardson adoptó un enfoque inusual en el entrenamiento de alfabetización de datos al crear una persona interna, Walt, para responder a las preguntas relacionadas con los datos de los empleados.
«La clave para fomentar la capacitación en alfabetización de datos fue hacer que Walt se relacionara con varias personas dentro de la organización», dijo Michael Meyer, ingeniero de datos de Farm Credit Services of America. «También creamos un blog donde los usuarios podían hacer preguntas sobre todo lo relacionado con los datos».
Eso quitó la presión a los equipos de datos para impulsar el cambio, añadió.
«El simple hecho de poner los datos en manos de los individuos de una organización no aumenta automáticamente el conocimiento de los datos y hace que una organización se base en ellos», dijo Stewardson.
De hecho, poner en marcha proyectos de datos sin prestar atención a la alfabetización en datos puede ser un error costoso».
Por ejemplo, Penny Wand, directora de tecnología de West Monroe Partners, una empresa de consultoría de gestión y tecnología con sede en Chicago, estaba trabajando en un proyecto para una empresa de fabricación para desplegar el análisis de estrategias de precios.
«La gente simplemente lo rechazó», dijo. «No entendieron los resultados».
El proyecto fue un fracaso, y la empresa no sólo perdió el tiempo y el dinero que gastó en la creación del análisis, sino que también perdió millones de dólares en oportunidades perdidas, dijo Wand.
«Les costó dinero porque no pudieron optimizar su estrategia de precios», dijo.
«Perdieron dinero al no poder poner en práctica lo que aprendieron con los datos».
Mucha gente ha estado fuera de la escuela durante mucho tiempo, y sus habilidades en matemáticas y análisis de datos no están en igualdad de condiciones, dijo Wand. Y esto no sólo perjudica a los proyectos de análisis básicos.
«Olvídese de la IA, sin un cierto nivel de conocimiento de los datos, no va a llegar allí»,
dijo.
¿Quién es el responsable de la educación en materia de alfabetización de datos?
Desafortunadamente, no hay actualmente muchas mejores prácticas y directrices a seguir cuando se trata de enseñar a los empleados en la alfabetización de datos, dijo Wand.
«Estamos en la infancia de los programas formales de alfabetización de datos», dijo.
Un enfoque es hacer que la educación sea específica para el papel que el empleado tiene en la organización, dijo. Eso es lo que Coursera está haciendo con su Academia de Ciencia de Datos. Otro enfoque es hacer llegar la educación a la gente según la necesite, ya que están usando sus herramientas de datos, en lugar de un programa de capacitación formal.
Luego está el desafío de medir el éxito.
Muchas empresas están abordando el reto de la alfabetización en datos trasladando a los científicos de datos fuera de los departamentos de ciencias de los datos y en unidades de negocio donde trabajan estrechamente con los usuarios finales, dijo Bryan Coker, consultor principal de datos y análisis en AIM Consulting Group, una consultoría de gestión con sede en Seattle.
«Creo que esa es una tendencia en casi todas partes», dijo.
Otro enfoque es ofrecer talleres prácticos y específicos a los empleados, centrándose en las herramientas analíticas concretas que se utilizan en la empresa y en los desafíos empresariales específicos en torno a los datos que la empresa y sus empleados afrontan.
Estos talleres pueden ser dirigidos por los proveedores de herramientas o por consultores independientes, dijo Justin Richie, director de ciencias de la información de Nerdery, una consultora de tecnología.
«Creo firmemente que la gente aprende mejor haciendo», dijo Richie. «Así que tener la capacidad de tener las manos en un teclado o portátil y hacer algo se trata de crear ese conocimiento contextual de hacerlo uno mismo. Es mejor que sentarse en un auditorio de tamaño universitario y escuchar a alguien hablar durante ocho horas».
O, en estos días, el equivalente al Zoom, añadió.
¿Cómo pueden las empresas fomentar la alfabetización de datos?
No todos quieren salir corriendo a aprender matemáticas.
«Ese sería un buen día de trabajo para mí, sólo tomando clases de matemáticas», dijo Jeff Herman, instructor de ciencias de datos en la Escuela Flatiron en Nueva York.
Otros empleados podrían necesitar algo de apoyo.
En el trabajo anterior de Herman en una compañía ferroviaria, los científicos de datos dirigieron sesiones de capacitación para otros empleados sobre los datos y cómo usarlos para hacer mejor su trabajo.
«Hablábamos de estadísticas básicas», dijo. «Hablábamos de diferentes bases de datos:
Aquí hay una base de datos de locomotoras, aquí hay datos sobre dónde van los trenes, aquí están las finanzas, y aquí está cómo acceder a los datos.»
Las empresas que buscan hacer algo similar deberían buscar habilidades de comunicación al contratar científicos de datos.
«Gente que pueda comunicarse con los interesados no técnicos y que se sienta cómoda dirigiendo la capacitación», dijo Herman.
“La alfabetización de datos no es sólo un beneficio para la compañía, sino también para usted. Te abrirá más puertas, te hará más comercializable. Jeff Herman Instructor de ciencias de la información, Escuela Flatiron”.
La Escuela Flatiron también tiene un curso gratuito de preparación en ciencias de la información, además de su plan de estudios habitual de ciencias de la información, dijo. La Academia Khan también ofrece muchos cursos gratuitos que cubren todo, desde estadísticas básicas hasta análisis de datos.
Pero no se trata sólo de hacer que la formación esté disponible, dijo Herman.
«Las empresas necesitan hablar sobre cuál es el beneficio para el empleado», dijo. «No es sólo un beneficio para la empresa, sino también para ti. Te abrirá más puertas, te hará más comercializable».
Además, la alfabetización de datos comienza en la parte superior, con el equipo ejecutivo.
«Tienen que sentirse cómodos con la idea de tomar decisiones basadas en los datos», dijo Herman.
Beneficios de mejorar el conocimiento de los datos
cuando las únicas personas que miran los datos son los científicos de datos, pueden perderse importantes conocimientos. Por ejemplo, en la compañía de ferrocarriles donde Herman solía trabajar, un indicador clave era el tiempo de inactividad de la locomotora.
«Pensamos que era un desperdicio de combustible», dijo Herman.
Pero cuando otras personas de la compañía, fuera de los equipos de análisis de datos, comenzaron a usar Power BI, pudieron ver los mismos datos desde una perspectiva diferente.
«La gente más cercana a las operaciones de las locomotoras sabían que había razones específicas por las que a veces tenía que estar al ralentí», dijo. «Fueron capaces de hacer un tablero de mandos para cuando una locomotora estaba al ralentí, cuando no debería estarlo, y concentrarse en los casos en los que realmente podíamos ahorrar combustible».
No es sorprendente que en una reciente encuesta de Forrester Research, el 90% de los encuestados y los responsables de la toma de decisiones analíticas vieron como una prioridad el aumento del uso de los datos en la toma de decisiones empresariales.
Pero con sólo el 48% de las decisiones basadas en información cuantitativa y análisis, hay bastante espacio para mejorar.
Entradas recientes
- El pasado jueves 23-06-2022 se presentó la plataforma Educación Laboral dentro del marco del programa ‘Almuerzo de Negocios’
- Webinar Buenas Prácticas para Asegurar Confidencialidad, Integridad y Disponibilidad en Entornos BD SQL Server.
- SPN – Gestión Laboral en Radio
- 25-05-2022 Se realiza el Webinar Hackeando Humanos. ¿Puede RRHH liderar en Ciberseguridad?
- Evaluación Laboral
Archivos
- junio 2022
- mayo 2022
- abril 2022
- marzo 2022
- febrero 2022
- enero 2022
- diciembre 2021
- noviembre 2021
- octubre 2021
- septiembre 2021
- agosto 2021
- junio 2021
- mayo 2021
- abril 2021
- marzo 2021
- febrero 2021
- enero 2021
- diciembre 2020
- noviembre 2020
- octubre 2020
- septiembre 2020
- agosto 2020
- julio 2020
- junio 2020
- mayo 2020
- abril 2020
- marzo 2020
- febrero 2020
- enero 2020
- diciembre 2019
- noviembre 2019
- octubre 2019
- septiembre 2019
- agosto 2019
- julio 2019
- junio 2019
- mayo 2019
- marzo 2019
- febrero 2019
- enero 2019
- diciembre 2018
- noviembre 2018
- octubre 2018
- septiembre 2018
- agosto 2018
- julio 2018
- junio 2018
- mayo 2018
- abril 2018
- marzo 2018
- enero 2018
- diciembre 2017
- agosto 2017
- julio 2017
- febrero 2017