Business Intelligence Controlling

La nueva generación del reporting económico-financiero y el control de gestión empresarial

Etiqueta: Transformaciones

Clasificar valores numéricos mediante una función personalizada en Power Query

Introducción

Cuando se construye un modelo de datos en Power BI, suele ser común la necesidad de ampliar una tabla procedente de un origen de datos con columnas adicionales, cuyo contenido se derive de los datos existentes en dicha tabla. En estos casos en los que los valores de las nuevas columnas van a ser pre-calculados y materializados de forma estática en el modelo y la lógica de negocio a implementar deriva del resto de columnas, es casi siempre preferible utilizar Power Query para definirlas, principalmente porque obtendremos un mayor nivel de compresión que usando columnas calculadas en DAX, y una columna con mejor compresión ocupará menos en memoria y normalmente nos proporcionará mejores niveles de rendimiento.

Un caso común, corresponde a la creación de columnas que nos ayuden a clasificar valores numéricos de manera que podamos discretizar esa variable y entender de forma clara la distribución de estos valores en nuestro modelo. Esta situación surge en multitud de escenarios, por ejemplo, cuando necesitamos clasificar facturas en función de la fecha de vencimiento, productos por precio de venta, empresas por cifra de negocios o empleados por grupos de edad. En este artículo vamos a ver distintas opciones para crear estas columnas con Power Query.

Leer más

Dinamizar sobre más de un valor en Power Query

La función Table.Pivot() del lenguaje M nos ofrece la capacidad de obtener como resultado una tabla que contiene un valor agregado para cada valor único de una columna. Cuando usamos esta función, Power Query agrupa cada valor mediante la agregación que seleccionemos y rota (pivota) los datos de la columna de atributo para convertirlos en encabezados de columna.

Desafortunadamente, Table.Pivot() sólo puede pivotar sobre una columna a la vez, por lo que si necesitamos realizar esta operación sobre más de una columna tenemos que llevar a cabo un sencillo proceso. Imaginemos que disponemos de la siguiente tabla:

Leer más

Imitar el comportamiento del argumento MissingField.Ignore en Table.TransformColumnTypes

Introducción

En el anterior artículo estuvimos hablando del reto de crear consultas robustas que sean resistentes a los cambios en la estructura de los datos en el origen, y que no fallen en la actualización por culpa de estas modificaciones. Vimos cómo, probablemente, el catalizador más común de este tipo de errores corresponde al uso de la función Table.TransformColumnTypes, y como se considera buena práctica el definir el tipo de solamente aquellas columnas que lo necesiten, con la finalidad de referenciar el menor número posible de ellas en nuestro código, y así evitar posibles fallos a la hora de actualizar nuestro modelo.

Cuando tratamos el tema de como eliminar de forma segura columnas en Power Query vimos el funcionamiento del argumento MissingField.Ignore, un parámetro opcional en muchas de las funciones de registro y de tabla, que indica que los campos referenciados dentro de la función que no se detecten deben ser ignorados.

Desafortunadamente, al contrario de lo que ocurre con las funciones Table.RemoveColumns o Table.RenameColumns, este tercer parámetro opcional no puede ser usado dentro de la función Table.TransformColumnTypes, lo que hace que cuando trabajamos con orígenes de datos dinámicos donde los campos pueden sufrir modificaciones, tengamos un poco más difícil el hecho de proteger nuestras consultas de este tipo de errores. Por ello, en este artículo vamos a ver cómo podemos imitar el comportamiento de MissingField.Ignore dentro de la función Table.TransformColumnTypes, con el objetivo de dotar de mayor robustez a nuestras consultas.

Leer más

Eliminar y transformar columnas de forma segura en Power Query

Introducción

El editor de consultas de Power Query nos proporciona un interfaz gráfico de usuario que facilita enormemente una gran parte de nuestras tareas de limpieza y optimización estructural de los datos, traduciendo los pasos que vamos realizando sobre una vista previa, a un flujo de instrucciones programáticas en lenguaje M que podemos ejecutar con el objetivo de automatizar dichas tareas.

Desafortunadamente, esta facilidad a la hora de realizar las tareas de ETL trae consigo la capacidad de cometer, sin que nos demos cuenta, algunos errores que pueden llevarnos a la creación de consultas vulnerables que no serán capaces de soportar los cambios en orígenes de datos dinámicos, y por lo tanto no se actualizarán.

Leer más

BI CONTROLLING 2023 © TODOS LOS DERECHOS RESERVADOS