Rol del documento
Capa central de metodologia

Concentra criterios de uso, interpretacion, trazabilidad y publicacion tecnica del ecosistema documental.

Ideal para
Compras, RRHH, partners, implementadores e IAs
Leer antes
Seguir con

Esta pagina explica como PerfilStack publica su rigor metodologico, que puede afirmarse hoy en la capa publica y que evidencia se consolida assessment por assessment.

Version V2
Estado Publicada
Actualizado 25 Mar 2026
Capa Metodologia publica
Documentacion metodologica

PerfilStack Methodology

La capa metodologica central de PerfilStack. Explica alcance, criterios de interpretacion, limites de uso, publicacion progresiva por instrumento y reglas de transparencia para el ecosistema documental.

Que afirma hoy PerfilStack

PerfilStack publica hoy un marco conceptual, una taxonomia de capacidades, un modelo de madurez, un metodo de aplicacion y una ontologia operacional. Esa capa permite entender que se observa, como se interpreta y para que decisiones sirve cada lectura.

Constructos definidos Indicadores observables Interpretacion por contexto Limites de uso explicitos

Publicacion por capas

  • Capa 1: marco conceptual y rationale del modelo.
  • Capa 2: capability model, maturity model, metodo y ontologia.
  • Capa 3: fichas tecnicas por assessment con scoring, contexto y limites.
  • Capa 4: benchmarks, percentiles y anexos tecnicos cuando la muestra lo permite.

Principio de transparencia

PerfilStack evita presentar como validado lo que aun esta en consolidacion. La documentacion publica diferencia explicitamente entre marco publicado, interpretacion operativa y evidencia estadistica publicada por assessment.

Que debe declarar cada assessment

La capa tecnica formal se construye assessment por assessment. Cada instrumento debe poder explicarse sin ambiguedad para cliente, partner o auditor.

Constructo

Que capacidad o fenomeno observa y que queda fuera de alcance.

Unidad de analisis

Persona, equipo, rol, cohorte o contexto organizacional aplicable.

Evidencia

Que tipo de observables, respuestas o eventos utiliza para sostener la lectura.

Scoring

Como se combinan inputs, pesos, escalas y reglas de interpretacion.

Contexto de uso

Para que decisiones sirve y para cuales no debe usarse de forma aislada.

Estado de evidencia

Marco publicado, ficha tecnica disponible, benchmark activo o evidencia en consolidacion.

Limites de uso

  • Un score no reemplaza juicio profesional, entrevistas ni contexto organizacional.
  • Los resultados no deben tratarse como diagnostico clinico ni como unica base de decision de alto impacto.
  • Los benchmarks solo deben mostrarse cuando exista muestra suficiente y criterios de comparabilidad claros.
  • La interpretacion siempre debe considerar rol, contexto, momento de medicion y objetivo del proceso.
Methodology documentation

PerfilStack Methodology

The central methodological layer of PerfilStack. It explains scope, interpretation criteria, usage boundaries, progressive publication by instrument, and transparency rules for the documentation ecosystem.

What PerfilStack claims today

PerfilStack currently publishes a conceptual framework, a capability taxonomy, a maturity model, an implementation method, and an operational ontology. That layer explains what is observed, how it is interpreted, and what decisions each reading is meant to support.

Defined constructs Observable indicators Context-aware interpretation Explicit usage boundaries

Layered publication

  • Layer 1: conceptual framework and model rationale.
  • Layer 2: capability model, maturity model, method, and ontology.
  • Layer 3: assessment sheets with scoring, context, and boundaries.
  • Layer 4: benchmarks, percentiles, and technical annexes when sample size allows it.

Transparency principle

PerfilStack avoids presenting as validated what is still being consolidated. Public documentation explicitly distinguishes between published framework, operational interpretation, and statistical evidence published assessment by assessment.

What every assessment should declare

The formal technical layer is built one assessment at a time. Every instrument should be explainable without ambiguity to clients, partners, or auditors.

Construct

What capability or phenomenon it observes and what remains out of scope.

Unit of analysis

Person, team, role, cohort, or applicable organizational context.

Evidence

What observables, responses, or events support the reading.

Scoring

How inputs, weights, scales, and interpretation rules are combined.

Use context

What decisions it supports and where it should not be used in isolation.

Evidence status

Published framework, technical sheet available, active benchmark, or evidence still consolidating.

Usage boundaries

  • A score does not replace professional judgment, interviews, or organizational context.
  • Results should not be treated as a clinical diagnosis or as the only basis for high-impact decisions.
  • Benchmarks should only be shown when sample size and comparability rules are strong enough.
  • Interpretation must always consider role, context, time of measurement, and the objective of the process.