Sigue estos pasos en orden para aprovechar al máximo el simulador:
El modulo tiene 3 escenarios reales: Copilot Agent en Banorte (analisis de fraude), GitHub Actions en Bimbo (pipeline ML), y Ollama en PEMEX (LLM local privado). Elige el que mas te interese.
Cada escenario muestra el problema empresarial, la solucion con IA y los comandos que vas a ejecutar. Lee esto antes de empezar para entender que hace cada comando.
La terminal simula un entorno real. Haz clic en Ejecutar junto a cada comando para ver el output. Los comandos se ejecutan en orden y cada uno depende del anterior.
Cada comando muestra su output real: logs de GitHub Actions, respuestas de Copilot Agent, outputs de Ollama. Observa el formato y los datos que produce cada herramienta.
En la seccion Personalizar, puedes cambiar parametros de los comandos: nombre del modelo Ollama, configuracion del workflow de Actions, prompts de Copilot Agent.
Al final de cada escenario puedes descargar los archivos reales: .github/workflows/ml-pipeline.yml, Modelfile de Ollama, .copilot/config.json. Usalos directamente en tu repositorio.