21 julio, 2025

De la Gestión de los Riesgos al Dominio de la Incertidumbre en La Guía del PMBOK (7a. Edición)

La séptima edición de la Guía del PMBOK® representa un giro radical en la forma de concebir la dirección de proyectos. Tras muchos años de estructurar la gestión como una secuencia de procesos y áreas de conocimiento, el estándar adopta doce principios y ocho dominios de desempeño que responden mejor a los entornos VICA/VUCA (volatilidad, incertidumbre, complejidad y ambigüedad) dominante. Esta evolución es especialmente evidente en la manera como se aborda el riesgo: se pasa de la subdisciplina acotada de la Gestión de los Riesgos, a un Dominio de Desempeño de la Incertidumbre donde el riesgo es solo una de múltiples facetas. El propósito de este post, es sintetizar y analizar esa transición, ilustrando cómo el nuevo enfoque amplía la mirada, refuerza la creación de valor y se integra con los demás dominios.

 

De la gestión de los riesgos al gobierno de la incertidumbre 

En las ediciones anteriores de la Guía del PMBOK® el riesgo se gestionaba mediante un flujo lineal: planificar cómo gestionar, identificar, analizar cualitativa y cuantitativamente, planificar respuestas, implementar y controlar. El resultado era un registro de riesgos, matrices de probabilidad–impacto y, con suerte, un conjunto de planes de contingencia. Ese modelo funcionaba cuando los proyectos se desplegaban en entornos relativamente estables, pero muchas iniciativas actuales enfrentan disrupciones constantes: tecnologías emergentes, ciclos regulatorios acelerados, nuevos competidores digitales, pandemias y eventos climáticos extremos. Bajo estas condiciones, el riesgo no se limita a una lista de “cosas que podrían salir mal”, y se asume como la manifestación de un espectro más amplio de incertidumbre. 

El Estándar reconoce esta realidad y crea el Dominio de Desempeño de la Incertidumbre, cuyo objetivo es asegurar que el equipo de proyecto identifique, valore y navegue todas las formas de lo desconocido.  

Este dominio se apoya en la idea de que la incertidumbre no siempre es negativa: también es fuente de oportunidades. Por tanto, gestionar incertidumbre implica generar iniciativas para maximizar el riesgo positivo y minimizar el negativo, equilibrando la exposición global dentro del apetito aceptable para los interesados.


 Figura 1. Esquema del Dominio de Desempeño de la Incertidumbre

Dominio de desempeño de la Incertidumbre

Fuente: Basado en (PMI, 2021)



El principio “Optimizar las respuestas a los riesgos” 


El Estándar enumera doce principios; el décimo, Optimizar las respuestas a los riesgos, condensa la filosofía moderna: “los equipos buscan maximizar oportunidades y reducir amenazas, de forma costo‑efectiva y acordada con los interesados”. Este principio introduce cuatro ideas clave:  
  1. Dualidad del riesgo: Amenazas y oportunidades coexisten; ignorar las segundas es desperdiciar potencial de valor.
  2. Alineación con el apetito: La organización define cuánto riesgo está dispuesta a asumir; el equipo calibra sus estrategias para no exceder ese umbral. 
  3. Asignación de propiedad: Cada riesgo relevante debe tener un responsable que disponga de autoridad y presupuesto para ejecutar la respuesta. 
  4. Iteración continua: El riesgo es dinámico, por consiguiente, su gestión requiere revisiones recurrentes, no hitos esporádicos.  En consecuencia, el plan de riesgos ya no es un documento estático sino un “backlog vivo” sincronizado con la revisión de alcance, cronograma, presupuesto y calidad.

 Figura 2. Principio: Optimizar la Respuesta a los RiesgosOptimizar la Respuesta a los Riesgos

Fuente: (PMI, 2021)



Anatomía de la incertidumbre: riesgo, ambigüedad, complejidad y volatilidad 

De forma general, la Guía del PMBOK (7ª Ed.) asume la incertidumbre como la falta de comprensión y conciencia de los incidentes, eventos, caminos a seguir o soluciones a buscar. La incertidumbre se refiere a las probabilidades de acciones, reacciones y resultados alternativos.

Para desenvolverse en este dominio hay que distinguir varios matices:

  • Riesgo: Evento o condición incierta con efecto positivo o negativo en los objetivos.
  • Ambigüedad: Falta de claridad sobre significados, causas o soluciones. La ambigüedad puede surgir de tener muchas opciones o de una falta de claridad sobre la elección óptima.
  • Complejidad; Conjuntos de elementos interconectados cuyo comportamiento agregado es impredecible, y que puede ser difícil de gestionar debido al comportamiento humano, el comportamiento del sistema y la ambigüedad.
  • Volatilidad: Cambios rápidos e inesperados.  

En este sentido, cada matiz demandará tácticas específicas. La ambigüedad se reduce con elaboración progresiva, experimentos y prototipos. La complejidad se aborda con desacople, simulación y diversidad de perspectivas. La volatilidad se mitiga con reservas de cronograma y costo, y análisis de alternativas. El riesgo se gestiona con las estrategias clásicas, ahora integradas en un mosaico más amplio que considera patrones emergentes y aprendizaje adaptativo.

  

Apetito, umbral y riesgo general del proyecto 

El apetito al riesgo refleja el nivel de incertidumbre que los interesados están dispuestos a aceptar en busca de recompensa; el umbral de riesgo cuantifica la variación permitida sobre un objetivo (p. ej., ± 5 % en costo). La séptima edición de la Guía del PMBOK® enfatiza que estos parámetros deben establecerse al inicio y revisarse cuando el contexto cambie.

Un concepto que se fortaleció es el riesgo general del proyecto: la exposición agregada proveniente de todas las fuentes de incertidumbre. No basta con vigilar los riesgos individuales; hay que monitorear si la suma de amenazas y oportunidades mantiene la iniciativa dentro de un rango aceptable. Si el riesgo global excede el apetito, se activan estrategias a nivel portafolio: posponer, redefinir alcance o incluso cancelar.


El riesgo general a menudo depende de la complejidad, la ambigüedad y la volatilidad. Las respuestas al riesgo general del proyecto son las mismas que para las amenazas y oportunidades individuales, aunque las respuestas se aplican al proyecto en general en lugar de a un evento específico. Si el riesgo general en el proyecto es demasiado alto, la organización puede optar por cancelar el mismo. (PMI, 2021).


Estrategias revisadas para amenazas y oportunidades 

El equipo del proyecto debe buscar de forma anticipada los riesgos durante todo el ciclo de vida, con el fin de prevenir o reducir el impacto negativo y las consecuencias de las amenazas y, a la vez, aprovechar o potenciar el impacto positivo o efectos de las oportunidades. Para ambos tipos de riesgo existen diversas estrategias de respuesta que pueden prepararse con antelación y aplicarse cuando la situación lo requiera. El catálogo de cinco tipos de estrategias para hacer frente al desafío derivado para cada uno de los riesgos se mantiene, pero se contextualiza: 


Oportunidades:

  • Explotar: el equipo interviene directamente para asegurar que la oportunidad se concrete.
  • Escalar: se traslada al patrocinador u otra instancia porque la oportunidad rebasa el alcance o la autoridad del proyecto.
  • Compartir: se asigna la responsabilidad a un tercero capaz de aprovechar mejor el beneficio.
  • Mejorar: se incrementan proactivamente la probabilidad o el impacto positivo, idealmente desde fases tempranas.
  • Aceptar: se reconoce la oportunidad sin planificar acciones adicionales, observándola hasta que surja la ocasión de actuar.

 Figura 2. Estrategias para hacer frente a las OportunidadesEstrategias para hacer frente a las Oportunidades



 Amenazas:

  • Evitar: eliminar por completo la amenaza o aislar el proyecto de sus efectos.
  • Escalar: remitir la amenaza a los patrocinadores u otro nivel, cuando excede el alcance o la autoridad del director del proyecto.
  • Transferir: ceder la responsabilidad a un tercero que asuma y gestione el riesgo y sus posibles consecuencias.
  • Mitigar: reducir de forma proactiva la probabilidad o el impacto de la amenaza, preferiblemente desde etapas tempranas.
  • Aceptar: reconocer el riesgo sin acciones proactivas; puede ser aceptación pasiva (sin reacción) o activa (preparar un plan de contingencia para ejecutarlo si se materializa la amenaza).

 Figura 2. Estrategias para hacer frente a las Amenazas
Estrategias para hacer frente a las Amenazas

La diferencia entre los tipos de estrategias está en la velocidad y en la experimentación: el estándar alienta acciones tempranas y prototipos para convertir hipótesis en datos. Además, subraya la importancia de documentar riesgo residual (lo que queda tras la respuesta) y riesgos secundarios (los creados por la misma respuesta).

 

Herramientas para navegar la incertidumbre 

Gestionar la incertidumbre demanda una cultura de transparencia: se recompensa la detección temprana y no se penaliza al mensajero. Las revisiones semanales de estatus, las retrospectivas (Scrum) y las sesiones de lecciones aprendidas son vehículos para actualizar el registro de incertidumbre, reasignar reservas y ajustar prioridades. Las métricas evolucionan de contar riesgos a medir tendencias: densidad de defectos, tiempo de ciclo (lead time) hasta cerrar un riesgo, tasa de oportunidades capitalizadas, variación del riesgo general en el tiempo, entre otras.

Entre de las técnicas y herramientas que pueden ser de gran utilidad para afrontar los desafíos de la incertidumbre, se encuentran:

  1. Matrices de probabilidad–impacto renovadas con factores de ambigüedad y volatilidad.  
  2. Histogramas y simulaciones Monte Carlo para riesgo agregado.  
  3. Modelos EMV / ROI Ajustado al riesgo que sitúan decisiones en clave financiera.  
  4. Tableros Kanban orientados a riesgo, donde cada impedimento visible se trata como señal de incertidumbre emergente.  
  5. Reservas para contingencias y de gestión,
  6. recalibradas conforme cambian los supuestos.  
  7. Revisiones de cadencia corta (stand‑ups, demos, retrospectivas) para detectar y responder de forma temprana.

Nota: La séptima edición introduce el concepto de cadencia como el ritmo que marca el momento y la frecuencia con que se liberan los entregables—ya sea una única entrega, hitos múltiples o lanzamientos periódicos—y, al mismo tiempo, regula cómo se ejerce la dirección del proyecto: en enfoques adaptativos e híbridos esa guía y el intercambio de conocimiento siguen intervalos fijos (p. ej., al cierre de cada sprint), mientras que en modelos predictivos se concretan en puntos de control formales para revisar el progreso y recibir retroalimentación.

 

Conclusiones  

La Guía del PMBOK® Séptima Edición no rechaza la gestión de riesgos tradicional: la trasciende al ubicarla dentro de un espectro más amplio. Al concentrarse en el Dominio de Desempeño de la Incertidumbre, los equipos ganan una brújula que señala no sólo dónde están las amenazas, sino también dónde habita la innovación.

El director de proyecto del siglo XXI necesita combinar pensamiento sistémico, disciplina financiera y mentalidad experimental para transformar incertidumbre en ventajas competitivas que fortalezcan el despliegue estratégico de la organización. Quien domine este arte entregará proyectos más resilientes, generará confianza en los interesados y abrirá espacios para oportunidades que, bajo una óptica puramente defensiva, habrían pasado desapercibidas.


Referencias

  • Project Management Institute. (2021). Guía de los fundamentos para la dirección de proyectos (7ª ed). Pennsylvania: PMI Publications.
  • Redondo, A. (2016). Áreas de Conocimiento de la Dirección (Gestión) de Proyectos.  http://alredsa.blogspot.com.co/2016/02/areas-de-conocimiento-de-la-direccion.html

20 julio, 2025

Del cilindro musical a los bits: el viaje rebelde de los telares que encendieron la chispa de la computación

Cuando pensamos en los orígenes de la informática, es fácil saltar directamente a Charles Babbage o a los tabuladores de Herman Hollerith. Sin embargo, medio siglo antes de Babbage, cuatro inventores franceses, Basile Bouchon, Jean-Baptiste Falcon, Jacques de Vaucanson y Joseph Marie Jacquard, desarrollaron sistemas textiles que introdujeron tres ideas clave de la computación: programabilidad, almacenamiento externo de instrucciones y automatización repetible. Su innovación fue tan profunda que las tarjetas perforadas que gobernaban sus telares siguieron vigentes en los mainframes de IBM hasta los años 1970.


El cilindro musical: la primera memoria programable

Mucho antes de que un telar levantara su primer hilo automático, la música mecánica ya había descubierto el poder de codificar acciones en un soporte externo. Desde los órganos de manivela medievales hasta los rollos de pianola (piano-rolls) del siglo XIX, los cilindros con pines (o las cintas perforadas) traducían una partitura en golpes exactos para controlar las notas y los pedales. Cada vuelta del cilindro era un ciclo de instrucción: leer la “bitácora” de pines, activar la nota correspondiente y avanzar al siguiente latido. Esa secuencia discreta de órdenes, almacenada fuera del mecanismo que las ejecutaba, es el rasgo que conecta directamente aquellos autómatas musicales con los computadores modernos.

 

Figura 1. Ilustración de un órgano de barril

 


Basile Bouchon (1725): la cinta perforada como “memoria”

Bouchon, hijo de un constructor de órganos de Lyon, adaptó la lógica de los cilindros musicales al telar: sustituyó al ayudante que tiraba de los hilos por una tira continua de papel perforado. Cada columna de perforaciones indicaba qué hilos elevar, convirtiendo la cinta en un “programa” mecánico y reutilizable. Fue la primera aplicación industrial de una máquina semi-automática.

El truco de Bouchon fue trasplantar la lógica de los autómatas musicales —cilindros con clavijas que activaban martillos para tocar notas— al mundo textil. En vez de golpear cuerdas de órgano, las clavijas virtuales eran agujeros; y las “notas” eran los hilos de urdimbre que se alzaban o quedaban quietos. Con esa metáfora sonora, el tejido se convirtió en una partitura visual que la máquina podía “interpretar” sin fatiga.

En los órganos de barril, los pines funcionan como ceros y unos: “pin fuera” (1) golpea la nota; “sin pin” (0) la silencia. Bouchon cambió las notas por hilos y los pines por agujeros, pero mantuvo intacta la idea de que un soporte perforado puede almacenar instrucciones binarias ejecutables en bucle. Si los cilindros musicales fueron el primer disco duro, su telar fue el primer procesador que los leía.

Paralelo informático: la cinta de papel es un antecesor directo de la cinta perforada usada para cargar software en los primeros computadores y, conceptualmente, de la memoria externa secuencial.

 

Jean-Baptiste Falcon (1728): de cinta a tarjetas enlazadas

Falcon amplió la idea de su mentor con tarjetas rectangulares unidas por cordel: cada tarjeta controlaba una pasada de la lanzadera. El formato modular facilitaba editar o reordenar patrones —un “código fuente” intercambiable— y permitía diseños más anchos al duplicar la cantidad de agujeros por fila.

Paralelo informático: las tarjetas individuales anticipan la noción de registros discretos de información y la posibilidad de debugging físico (reemplazar una tarjeta defectuosa).


Jacques de Vaucanson (1745): el primer telar completamente automático

Famoso por sus autómatas, Vaucanson integró cilindros con levas y tarjetas para eliminar la intervención humana durante el tejido. Su telar —aunque poco exitoso comercialmente— demostró que la lógica perforada podía accionar todos los movimientos del telar, no solo la selección de hilos.

Paralelo informático: Vaucanson introdujo la idea de que un único medio perforado podía orquestar múltiples ejes de movimiento, anticipando el control multi-eje de los robots industriales y de las máquinas de Control Numérico Computarizado (CNC).


Joseph Marie Jacquard (1801-1804): el sistema programable que conquistó la industria

Jacquard combinó las mejores ideas previas y añadió un prisma cuadrado que rotaba las tarjetas perforadas, multiplicando la complejidad de patrones sin incrementar el tamaño del telar. Su máquina contaba con ocho filas de agujas y ganchos capaces de levantar diferentes hilos de urdimbre, de forma independiente; ello permitía “dibujar” brocados, damascos o arabescos con un detalle sin precedentes y, además, sobre cada disparo de la lanzadera, no cada cuatro como en máquinas anteriores. El diseño se almacenaba en un carrete infinito de cartones, que funcionaba como una memoria externa reescribible, por consiguiente, bastaba con “cargar” otro juego de tarjetas para cambiar de patrón en minutos, sin tocar el hardware.

Es importante acotar que en 1812 ya había más de 11000 telares Jacquard funcionando en Francia. 

Figura 2. Ilustración simulada de un telar de Jacquard  


Paralelo informático: 

Concepto en el telar Jacquard

Equivalente en un computador

Impacto

Cadena de tarjetas perforadas

Medio de entrada/programa

Separa hardware de software

Cada tarjeta = 1 fila de diseño

Instrucción secuencial

Imita ciclo de instrucción

Reemplazo de tarjetas

Reprogramación instantánea

Facilita iteración y depuración

Ganchos activados/no activados

Bits (1/0)

Primer uso masivo de codificación binaria

 

De Lyon a Silicon Valley: influencia directa en la historia de la computación 

  • Charles Babbage visitó Lyon y conservó un retrato de Jacquard tejido por el propio telar; adoptó la tarjeta perforada como dispositivo de entrada/salida para su Máquina Analítica (1837).
  • Herman Hollerith reutilizó el principio para tabular el censo estadounidense de 1890, fundando la empresa que luego sería IBM.
  • Las tarjetas dominaron la programación hasta la llegada de los discos magnéticos, y la idea de datos codificados físicamente evolucionó hacia las memorias de núcleo y, más tarde, hacia los chips de silicio.

 

Conclusiones

Los inventores de los telares perforados no buscaban crear computadores, pero establecieron los cimientos conceptuales de:

  1. Programabilidad: un medio externo que contiene instrucciones.
  2. Almacenamiento reescribible: cambiar tarjetas = cambiar programa.
  3. Automatización precisa y repetible: ejecución mecánica sin intervención humana.

De esta forma, los telares del siglo XVIII y XIX no solo revolucionaron la industria textil; también tejieron la primera trama de la era de la información, demostrando que la inteligencia de una máquina podía residir fuera de su mecanismo, lista para ser leída, interpretada y ejecutada, exactamente como ocurre hoy, cada vez que un procesador carga código desde memoria.


Fuentes principales: LiveScience, Computer History Museum, HistoryOfInformation.com, Science Museum Group y archivos de IBM.

06 julio, 2025

Del Alcance a la Acción: Claves del Estándar Práctico para la Estructura de Desglose del Trabajo (EDT)

Introducción

En la gestión contemporánea de proyectos, caracterizada por la volatilidad del entorno y la presión por entregar resultados de manera más rápida y confiable, disponer de un lenguaje común que articule el trabajo y asegure la alineación de expectativas se ha convertido en un imperativo. El Estándar Práctico para la Estructura de Desglose del Trabajo (3ª Ed.) del PMI responde precisamente a esta necesidad al proporcionar un marco de referencia que transforma la incertidumbre inicial en un mapa de decisiones concretas. En este post sintetizamos las ideas esenciales de la obra y las conectamos con la problemática de las organizaciones que buscan mejorar su competitividad mediante la gestión de proyectos.


¿Qué es una Estructura de Desglose del Trabajo (EDT)?

La Estructura de Desglose del Trabajo (Work Breakdown Structure, WBS) es una descomposición jerárquica del alcance total del proyecto. Su propósito es representar el qué debe producirse, jamás el cómo ni el cuándo. Al construir un EDT, el equipo convierte “la gran incógnita” del proyecto en un conjunto de paquetes de trabajo estimables, asignables y controlables. Este paso resulta decisivo porque:

  • Refuerza la comprensión compartida del alcance y delimita el temido aumento del alcance (scope creep).
  • Suministra la base para el cronograma, el presupuesto, el plan de recursos, la matriz de riesgos y el sistema de control de valor ganado.
  • Equilibra la necesidad de control directivo con la autonomía táctica, al permitir diferentes niveles de agregación según el público interesado.


Definiciones fundamentales

  • Actividad: una parte específica y programada del trabajo que se realiza durante un proyecto.
  • Alcance: la suma de los productos, servicios y resultados que se proporcionarán como proyecto.
  • Cuenta de Control: un punto de control de gestión donde se integran el alcance, el presupuesto, el costo real y el cronograma, y se comparan con el valor ganado para la medición del rendimiento.
  • Diccionario de la EDT: un documento que proporciona información sobre entregables, actividades, programación y estimaciones para cada elemento de la EDT.
  • Entregable: cualquier producto, resultado o capacidad único y verificable para realizar un servicio que se requiere para completar un proceso, fase o proyecto.
  • Paquete de Planificación: una cuenta de control puede incluir uno o más paquetes de planificación. Un paquete de planificación es un componente de la Estructura de Desglose del Trabajo (EDT) que se encuentra por debajo de la cuenta de control y por encima del paquete de trabajo, con contenido de trabajo conocido, pero sin actividades detalladas del cronograma.
  • Paquete de Trabajo: Es el trabajo definido en el nivel más bajo de la EDT, para el cual se estiman y gestionan los costos y la duración.


Figura 1. Niveles de la EDT



Principios rectores del Estándar

El Estándar resume años de aplicación de buenas prácticas en las siguientes ideas centrales:

  1. Regla del 100 %: la EDT debe contener el 100 % del trabajo del proyecto y solo ese trabajo. Nada falta, nada sobra. Específicamente, el Estándar señala que este principio contempla que: El total del trabajo en los niveles inferiores de una EDT se acumula en los niveles superiores.”, lo que garantiza que garantiza que una EDT incluya todos los entregables conocidos del alcance y del proyecto.
  2. Orientación a entregables: cada elemento representa un resultado tangible, medible y verificable.
  3. Coherencia jerárquica: el nivel inferior resume exactamente la suma de sus hijos; la numeración refleja la lógica de descomposición.
  4. Progresión por elaboraciones sucesivas (rolling wave): se detalla a medida que crece la información, pero siempre bajo control de cambios formal.
  5. Calidad evaluable: existen atributos, lineamientos y listas de comprobación que permiten diagnosticar la robustez del EDT antes de formular la línea de base del alcance.


EDT en distintos ciclos de vida

Uno de los aportes significativos de la tercera edición es su aplicación explícita en cuatro enfoques de ciclo vital:

  • Predictivo (cascada): El EDT se acostumbra a organizar por fases o por entregables principales y se cierra tempranamente. Es idóneo cuando la incertidumbre es baja.
  • Iterativo: Se formula un EDT inicial y se refina prototipo tras prototipo, propiciando el aprendizaje antes de comprometer todo el presupuesto.
  • Incremental: Cada iteración genera un incremento utilizable, de modo que el EDT progresa por paquetes de valor que alcanzan la mano del cliente con rapidez.
  • Ágil: El backlog se asimila a la capa más baja del EDT, las épicas, características e historias de usuarios sustituyen los paquetes de trabajo tradicionales y se re-priorizan con flexibilidad.

El estándar también contempla configuraciones híbridas, donde se combinan bloques de alcance fijos con segmentos adaptativos sin perder la trazabilidad.


Métodos y herramientas de descomposición

Para desplegar una EDT se proponen las siguientes rutas complementarias:

  • Top‑down: partir de la “gran foto” del entregable y descender hasta donde sea gerenciable.
  • Bottom‑up: recoger detalles de especialistas y luego agruparlos en jerarquías lógicas.
  • Estándares organizacionales y plantillas: acelerar la curva de aprendizaje reutilizando marcos aprobados.
  • Mapas mentales: favorecer lluvias de ideas y detectar interdependencias antes de formalizar la estructura.

La clave es elegir la combinación que mejor se adapte a la cultura, al grado de novedad y al tamaño del proyecto.


Estilos de presentación

La EDT no tiene un estándar único de presentación y puede adoptar tres formas principales:

Jerárquico: Diagrama en árbol que facilita la compresión visual.


Figura 2. EDT Jerárquico



Esquema (Outline): Cada nivel de la EDT se muestra mediante el nivel de sangría y está acompañado por un código de esquema alfanumérico o esquema de numeración.


Figura 3. EDT Esquema Indentado (Indented Outline)




Tabular: Vista matricial que se integra con RBS, OBS y CBS para fines de costos o riesgos.

Figura 4. EDT Esquema Tabular


Seleccionar un estilo y mantenerlo coherente evita la dispersión de versiones y simplifica los procesos de monitoreo y control.


Criterios de calidad para una EDT

El Estándar propone una lista de verificación que contempla los siguientes aspectos:

  • Cobertura de alcance: ¿Están todos los entregables internos y externos?
  • Integridad del diccionario: ¿Cada paquete de trabajo dispone de descripción, responsables, criterios de aceptación y premisas?
  • Granularidad adecuada: ¿El tamaño facilita estimaciones (Entre 8‑40 horas) sin asfixiar la dirección con detalles de microgestión?
  • Trazabilidad bidireccional: requisitos ↔ EDT ↔ entregables.
  • Consistencia lógica: Evita solapamientos y asegura que cada ítem pertenezca a un único padre.


Beneficios organizacionales

Más allá del proyecto individual, un EDT maduro genera valor corporativo en al menos cuatro frentes:

  1. Gobernanza: Establece un patrón de transparencia que simplifica auditorías y favorece la rendición de cuentas.
  2. Aprendizaje: Proporciona una base de conocimiento que retroalimenta estimaciones futuras y mejora la predictibilidad.
  3. Colaboración: Rompe silos funcionales al situar la conversación en torno a entregables compartidos.
  4. Competitividad: Reduce costos de transacción y acelera la capacidad de respuesta ante oportunidades de mercado.


EDT y metodologías ágiles: reconciliación práctica

Existe el mito de que un EDT es innecesario en entornos ágiles. La tercera edición del Estándar Práctico para la Estructura de Desglose del Trabajo lo desmiente al demostrar que, aunque la granularidad y la temporalidad cambien, la lógica de qué vamos a entregar permanece indispensable.  Si bien la EDT se asocia a menudo con ciclos de vida predictivos y facilita la descomposición del alcance total del proyecto, cuando se adoptan prácticas ágiles, la descomposición del alcance total en partes más pequeñas facilita la creación de un backlog o product backlog

De acuerdo con el Estándar, en entornos incrementales la EDT puede evolucionar iterativamente junto con la elaboración progresiva (rolling waves planning) del alcance del proyecto hasta que se establece la línea base del alcance por separado para cada fase (iteración).

También se propone que, en los ciclos de vida incrementales, la línea base del alcance del proyecto es la versión aprobada de la declaración del alcance del proyecto, la EDT y su diccionario asociado para una iteración específica. Una línea base cambia únicamente mediante procedimientos formales de control de cambios y sirve como base de comparación durante la implementación del proyecto.


Diccionario de EDT: el compañero inseparable

Por cada elemento de la estructura, el Estándar recomienda consignar información detallada: descripción, supuestos, restricciones, criterios de aceptación, responsables y estimaciones preliminares. Este “diccionario” funciona como complemento que evita interpretaciones divergentes.


Conclusiones

Concebido como estándar de práctica, el documento no es dogma; es una guía flexible que evoluciona con la industria. Leerlo a la luz de nuestra realidad latinoamericana proporciona una hoja de ruta para transformar ideas en resultados tangibles. Al final, el éxito del proyecto no se mide solo por la entrega en fecha y costo, sino por su capacidad para generar capacidades diferenciadoras y valor sostenido. El EDT, bien aplicado, es el cimiento de esa aspiración.


Referencias

Project Management Institute. (2019). Practice Standard for Work Breakdown Structures (3th. ed). Pennsylvania: PMI Publications.


04 julio, 2025

La vision 360° de la Calidad en la Guía del PMBOK® Séptima Edición

La séptima edición de la Guía del PMBOK® marca un giro decisivo: deja atrás la arquitectura basada en 49 procesos y se organiza en torno a principios y dominios de desempeño. En este nuevo mapa, la calidad deja de ser un área de conocimiento aislada para convertirse en un hilo conductor que atraviesa decisiones, flujos de trabajo y cultura de proyecto. Este post aborda la forma cómo la calidad se conceptualiza y se gestiona en la guía, con especial énfasis en el Dominio de Desempeño de la Entrega y en la definición de calidad como “grado en que un conjunto de características inherentes satisface los requisitos”.

Una de las transformaciones más notables de la séptima edición fue abandonar la estructura rígida basada en procesos y entradas‑herramientas‑salidas para articular la dirección de proyectos alrededor de doce (12) principios y ocho (8) dominios de desempeño. En este nuevo marco, la calidad deja de habitar una “área de conocimiento” aislada y se integra como un hilo transversal que condiciona decisiones estratégicas, tácticas y operativas. El principio “Incorporar la calidad en los procesos y los entregables” recalca que el proyecto se diseña para prevenir defectos, no sólo para detectarlos al final (Figura 1). Así, la calidad adopta un enfoque holístico que abarca cultura, flujos de trabajo, métricas, talento y, sobre todo, valor percibido por los interesados.

Figura 1. Incorporar la Calidad en los Procesos y los Entregables

Fuente: PMI, 2021

1. Definir calidad: de la Norma ISO al ADN del proyecto

La guía conserva la definición proveniente de la norma ISO 9000: “grado en el que un conjunto de características inherentes satisface los requisitos”. El enfoque resulta fundamental, la calidad no es perfección sino ajuste entre lo que el entregable es y lo que los interesados necesitan, declaran o suponen implícitamente. Para operacionalizar ese grado, la Guía del PMBOK describe ocho dimensiones complementarias, que sirven de lente múltiple para examinar productos y servicios: 

  1. Desempeño. ¿Funciona el entregable como lo previeron el equipo del proyecto y otros interesados?
  2. Conformidad. ¿El entregable es apto para su uso y cumple con las especificaciones?
  3. Confiabilidad. ¿El entregable produce métricas consistentes cada vez que se realiza o produce?
  4. Resiliencia. ¿Es el entregable capaz de hacer frente a fallas imprevistas y recuperarse rápidamente?
  5. Satisfacción. ¿El entregable obtiene retroalimentación positiva de los usuarios finales? ¿Esto incluye usabilidad y experiencia del usuario?
  6. Uniformidad. ¿El entregable exhibe paridad con otros entregables producidos de la misma manera?
  7. Eficiencia. ¿El entregable produce la mayor salida con la menor cantidad de entradas y esfuerzo?
  8. Sostenibilidad. ¿El entregable produce un impacto positivo en los parámetros económicos, sociales y ambientales? (PMI, 2021).

Cada dimensión combina aspectos cuantitativos y cualitativos, por ejemplo, confiabilidad se valida con ciclos de prueba estadística, mientras que satisfacción se captura con encuestas de usuario y diseño de experiencia. De este modo, la definición se expande de la especificación técnica a la percepción de valor.

2. El Dominio de Desempeño de la Entrega y su perspectiva de calidad

El Dominio de Desempeño de la Entrega (Delivery Performance Domain) es la concreción de esa visión. Allí se recuerda que el alcance describe qué se entregará, pero la calidad determina cuán bien debe funcionar el entregable. El dominio propone tres artefactos clave:

  • Requisitos: condiciones necesarias para satisfacer la necesidad de negocio.
  • EDT/WBS: descomposición que facilita gestionar el qué y el cuándo.
  • Definición de Terminado (DoD): lista de verificación que valida que cada paquete de trabajo es apto para uso.
Figura 2. Ejemplo de Estructura de Descomposición del Trabajo (EDT) 
Ejemplo EDT

La calidad se integra cuando los criterios de aceptación se redactan simultáneamente con la EDT y el DoD, creando una tríada que alinea expectativas y reduce retrabajo. En metodologías  ágiles, esta tríada se manifiesta como historias de usuario con criterios de aceptación y Definition of Done; en cascada, como especificaciones detalladas enlazadas a pruebas de verificación y validación.

La calidad solo cobra sentido cuando está íntimamente vinculada con la gestión del alcance: cada requisito aceptado alimenta tanto la definición de los entregables como los umbrales de desempeño que los harán “aceptables”. Según la guía, el alcance evoluciona a medida que se descubren requisitos; por consiguiente, los criterios de aceptación, las medidas de desempeño técnico y la Definición de Terminado deben revisarse conjuntamente, garantizando que la "suma de productos, servicios y resultados" prometida sea, además, adecuada en grado de calidad. 

Dicho de otro modo, un paquete de trabajo no se considera completo porque exista, sino porque cumple la lista de verificación de acabado, satisface las especificaciones del diccionario de la EDT y supera los criterios de aceptación acordados con el cliente. Esta sincronización evita la trampa de entregar “a tiempo y dentro del presupuesto” algo que, sin embargo, carezca de valor; alinea la expectativa de ‘qué’ con el estándar de ‘cuán bien’, preservando tanto la satisfacción de los interesados como la integridad del triángulo de hierro.

De forma práctica, integrar calidad y alcance significa que cada vez que el equipo ajusta el alcance, ya sea por requisitos descubiertos o cambios de prioridad, debe actualizar de inmediato los indicadores de calidad asociados. Así, cada nuevo paquete de trabajo incluye criterios de aceptación explícitos en la declaración de alcance, se refleja en el diccionario de la EDT con sus medidas de desempeño técnico, y se incorpora a la Definición de Terminado la secuencia de pruebas, inspecciones o certificaciones necesarias. Esta ‘doble entrada’ entre alcance y calidad evita que crezcan los entregables sin la garantía equivalente de desempeño y asegura que la línea base de alcance solo se considere cumplida cuando los estándares de calidad quedan también verificablemente satisfechos.

3. La calidad como vector estratégico en la generación de valor

La Guía del PMBOK enfatiza que entregar valor puede suceder antes, durante o después del proyecto, según la cadencia de liberación elegida. Un mínimo producto viable que llega temprano al mercado ofrece retroalimentación real que retroalimenta requisitos y dimensiona la calidad percibida. Aquí la gestión de calidad se interseca con la gestión de beneficios: si los interesados valoran la sostenibilidad, la métrica de eficiencia energética se vuelve prioritaria; si valoran la resiliencia, los planes de prueba ante fallos se incluyen en la línea base de calidad. El director de proyecto debe, por tanto, orquestar un equilibrio dinámico: evitar ‘sobrecarga de oro’ pero asegurar que el producto sea adecuado para su propósito.

El Dominio de Entrega se nutre de la Planificación, que establece métricas y tolerancias; del Enfoque de Desarrollo y Ciclo de Vida, que define iteraciones o fases; y del Trabajo del Proyecto, que provee la infraestructura física y contractual para controlar variabilidad y adquisiciones. A su vez, la calidad modula el Dominio de Incertidumbre: productos de alta criticidad requieren márgenes de seguridad más amplios y pruebas más exhaustivas. Finalmente, la guía alerta sobre la ‘corrupción del alcance’: agregar funcionalidades sin recalibrar cronograma o costos erosiona la calidad, pues cada línea adicional implica nuevos vectores de fallo.

La calidad no se delega, se vive y se gestiona. Para el director de proyecto esto implica fomentar la mentalidad de ‘cero sorpresas’, empoderar equipos multifuncionales para detener la línea si detectan riesgos, recompensar hallazgos tempranos y modelar con el ejemplo. El resultado es un bucle de mejora continua: cada incidente se convierte en lección aprendida que ajusta políticas, plantillas y métricas. Con el tiempo, la organización reduce tiempos de ciclo y aumenta la moral.

4. El Costo de la Calidad (COQ): invertir hoy para no sufrir mañana

La metodología Costo de la Calidad divide los gastos en prevención, evaluación, fallas internas y fallas externas. Prevención incluye capacitación, diseño robusto, automatización de pruebas; evaluación, las inspecciones y auditorías; fallas internas, el retrabajo antes de la entrega; y fallas externas, las garantías, devoluciones y el impacto reputacional. El arte gerencial consiste en desplazar recursos hacia las dos primeras categorías —las únicas que construyen valor— y minimizar las segundas, que destruyen márgenes. Un indicador temprano de madurez es la proporción Prevención + Evaluación frente a Fallas: cuanto más se incline hacia la izquierda, más sostenible será el proyecto.

Figura 3. Curva de Costo del Cambio de BoehmCurva de costo del cambio de Boehm

Fuente: PMI, 2021

La curva del costo del cambio demuestra que un defecto descubierto durante la fase de operaciones—por ejemplo, una falla en una línea de producción o un error de dosificación en un lote farmacéutico—puede costar cientos de veces más que si se hubiera detectado en la etapa de diseño o prototipo. La Guía del PMBOK (7a. Ed.) advierte que confiar en inspecciones finales como única barrera conduce a sobrecostos y riesgos reputacionales. Controles preventivos como revisiones de diseño multidisciplinarias, pruebas piloto a pequeña escala y auditorías de proceso en tiempo real actúan como vacunas económicas. En proyectos de construcción, esto se traduce en modelos BIM (Building Information Modeling) con detección temprana de interferencias; en manufactura, en muestreos estadísticos durante la producción.

5. Herramientas y técnicas: de la teoría al tablero Kanban

Entre las herramientas y técnicas recomendadas para este despliegue integral de la calidad, se pueden encontrar: 

  • Matrices de criterios de aceptación enlazadas a la EDT o al backlog.
  • Calidad por diseño (QbD) con sesiones de co‑creación.
  • Auditorías ágiles al cierre de cada iteración.
  • Pruebas automatizadas.
  • Análisis causa‑raíz sistemático.
  • Dashboards de calidad basados en tiempos de entrega (lead time).
  • Indicadores de densidad de defectos y métricas de sostenibilidad.
  • Políticas de control de cambios que evalúan beneficio vs. impacto.
  • Herramientas de seguimiento a los Costos de Calidad que documenten inversiones y ahorros.
  • Tablero Kanban con límites de Trabajo en Progreso (WIP).

Implementar este arsenal requiere madurez digital y disciplina humana: el director orquesta la priorización, fusiona prácticas en el plan de gestión y en el caso de proyectos ágiles, asegurar que cada hallazgo vuelva al backlog de mejoras.

Conclusiones

La séptima edición no ofrece una receta paso a paso; propone una filosofía de valor. Al entender la calidad como ‘grado de satisfacción de requisitos’, y al reconocer que los requisitos evolucionan, los equipos pivotan de una mentalidad de cumplimiento estático a un enfoque de valor dinámico. El Dominio de Desempeño de la Entrega se instala como epicentro, donde la pregunta ya no es sólo ‘¿qué vamos a entregar?’, sino ‘¿qué tan bien lo lograremos y cómo lo sabremos?’. Gestionar la calidad de forma integrada maximiza la inversión preventiva, minimiza fallas externas y construye reputación. 

Si tu organización todavía asume la calidad como una fase tardía en la dirección de proyectos, la Séptima Edición invita a un cambio de paradigma que convierte la calidad en pilar de diferenciación estratégica.

Referencias

  • Project Management Institute. (2021). Guía de los fundamentos para la dirección de proyectos (7ª ed). Pennsylvania: PMI Publications.
  • Redondo, A. (2016). Áreas de Conocimiento de la Dirección (Gestión) de Proyectos.  http://alredsa.blogspot.com.co/2016/02/areas-de-conocimiento-de-la-direccion.html