2  Formulación del Proceso de Decisión de Markov

Los estados de nuestro proceso de decisión de Markov representarán la proporción de la población en cada categoría del modelo propuesto por (Pedroza-Meza, Velasco-Hernández, y Acuña-Zegarra 2025):

El estado global del sistema en el tiempo \(t\) se presenta como

\[ x_{t} = (S_{t}, V_{+t}, V_{-t}, I_{t}, R_{t}) \]

El escenario que consideraremos para cada \(t \in {0,1,\dots, N}\)para el proceso de Markov:

Algunos supuestos que estaremos considerando para nuestro proceso son:

Bajo los supuestos anteriormente mencionados, consideramos el siguiente Modelo de Control de Markov.

\[ (\mathbf{X}, \{A(x): x \in X\}, \mathbf{P}, \mathbf{C}) \]

donde \(\mathbf{X}\) es el espacio de los estados, \(\{A(x): x \in X\}\) es el espacio de las acciones admisibles, \(\mathbf{P}\) es la ley de transicion de modelo y \(\mathbf{C}\) es la funcion de costo.

En la siguiente figura se ilustra el cambio de un estado a otro por las acciones admisibles. Desarrollaremos la dinámica de la cadena de Markov en las siguientes secciones.

Diagrama del cambio de un estado a otro.
Pedroza-Meza, Irasema, Jorge X Velasco-Hernández, y M Adrian Acuña-Zegarra. 2025. «Multiple endemic equilibria in the presence of imperfect vaccine coverage». Mathematical biosciences 164 (2).