Services Solutions About Case Studies Blog Contact
Explore Solutions
Databricks lanzó Lakeflow Designer en public preview
AI & Data

Databricks lanzó Lakeflow Designer en public preview

Volver al Blog

Databricks lanzó Lakeflow Designer en una versión previa a su publicación. Un analista arma pipelines en lenguaje natural, sin licencia por usuario.

El mayor costo de un stack moderno de datos no figura en la factura del lakehouse, sino en las horas que los ingenieros de datos dedican a construir y mantener pipelines que un analista podría haber desarrollado.

El 22 de abril, Databricks lanzó Lakeflow Designer en public preview. Esta herramienta permite a analistas o ingenieros de datos junior describir pipelines en lenguaje natural, ajustar pasos en una interfaz visual y generar código Python listo para producción. Todo esto ocurre dentro de Unity Catalog, sin salir del lakehouse.

Qué cambia con esta release

Lakeflow Designer no es solo un wrapper sobre notebooks, sino un constructor de pipelines completo:

  • Ofrece diseño visual con drag and drop sobre fuentes, transformaciones y destinos, todos gobernados por Unity Catalog.
  • Permite composición asistida con lenguaje natural, traduciendo solicitudes como “filtra los pedidos de los últimos 30 días por cliente activo” a SQL o Python.
  • Genera código legible, versionable y editable manualmente cuando sea necesario.
  • Incluye integración nativa con las capacidades de observabilidad y de linaje de Lakeflow.

El detalle de pricing que muchos van a pasar por alto

Lakeflow Designer no requiere licencia por usuario; solo se paga por el cómputo utilizado.

Las empresas suelen limitar el uso de herramientas como Prophecy, Matillion o Coalesce debido a su modelo de licencias por usuario. Con Lakeflow Designer, donde el costo marginal por usuario es nulo, la conversación cambia de “quién tiene licencia” a “quién necesita crear un pipeline esta semana.”

Para quién es esto, y para quién no

No es la solución para todos los pipelines. Sus casos de uso más adecuados son:

  • Pipelines orientados a analistas, donde el negocio comprende mejor la lógica que ingeniería y la velocidad de iteración es clave.
  • Migraciones desde herramientas legacy como Informatica, Talend o SSIS, cuando se busca un destino con gobernanza nativa.
  • Pipelines para clientes internos con dependencias claras y sin reglas de transformación complejas.

Sin embargo, aún no es la mejor opción en los siguientes casos:

  • Pipelines críticos de alto volumen con SLAs estrictos, que requieren código personalizado y pruebas exhaustivas.
  • Lógica de transformación ya bien encapsulada y funcionando en dbt.

El golpe competitivo

Para Prophecy, esto representa una amenaza existencial: su principal valor era ofrecer una solución visual, gobernada y generadora de código. Matillion y Coalesce sufren un impacto relevante, pero mantienen como ventaja su capacidad multi-cloud, que Lakeflow Designer no ofrece.

En el caso de Fivetran, el impacto es indirecto. Lakeflow Designer no compite con la ingesta SaaS, sino con su capa de modelado, lo que representaba una oportunidad de upsell.

Cómo aprovecharlo sin romper lo que ya tienes

Si tu equipo ya utiliza Databricks, considera realizar el siguiente experimento durante dos semanas:

  • Selecciona un pipeline frágil que aún opere en una herramienta legacy y reescríbelo en Lakeflow Designer, en colaboración con un analista del negocio.
  • Evalúa tres aspectos específicos: a) el tiempo total de reconstrucción; b) el número de iteraciones hasta la aceptación del negocio; c) el costo de cómputo del nuevo pipeline en comparación con el original.
  • Además, documenta las limitaciones encontradas en el constructor visual y los casos en los que recurriste al código de forma manual.

Estos tres datos te permitirán justificar o descartar una migración más amplia, sin invertir un trimestre completo en una decisión arquitectónica.

La pregunta que le toca a la organización

¿Qué porcentaje del backlog de pipelines de tu equipo de datos podría haber sido desarrollado por la persona que solicitó la información, si la herramienta lo hubiera permitido?

Si la respuesta es “una buena parte”, Lakeflow Designer transforma la economía del equipo. La inversión relevante no consiste en adquirir la herramienta, ya que está incluida con Databricks, sino en rediseñar la asignación de responsabilidades y establecer una gobernanza clara para evitar la descentralización descontrolada.

En Papalote Technologies ayudamos a los equipos de datos a redistribuir el trabajo de pipelines entre ingeniería y negocio sin perder gobernanza y a medir el impacto en los tiempos de entrega y los costos. Si deseas conversar sobre cómo posicionar Lakeflow Designer en tu estrategia de datos, visita papalote.ai.

¿Listo para transformar tu negocio?

Agenda una llamada de estrategia y descubre cómo las soluciones prácticas de IA, análisis y CLM pueden fortalecer tus operaciones.

Agenda una llamada Ver soluciones