




























Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
El método Simplex, una técnica utilizada para resolver problemas de optimización lineal. El método consiste en transformar el problema inicial en una serie de tablas, mediante una serie de pivoteos, hasta obtener una solución óptima. El documento incluye ejemplos y explicaciones detalladas.
Qué aprenderás
Tipo: Apuntes
1 / 36
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
Definici´on 1.1 Un problema de programaci´on lineal es un problema de minimizar o ma-
ximizar un funci´on lineal en la presencia de restricciones lineales del tipo de desigualdad,
igualdad o ambas.
Este modelo matem´atico surge t´ıpicamente al tratar de asignar “recursos limitados” entre
“actividades competidoras” en la mejor forma posible (e.d. ´optima).
Ejemplo 1.1 Expresi´on general:
optimizar c 1 x 1 + c 2 x 2 + · · · + cnxn
sujeto a a 11 x 1
a 21 x 1 + a 22 x 2 + · · · + a 2 nxn (≤, =, ≥) b 2
a m 1 x 1
x 1 ,... , xk ≥ 0 (k ≤ n)
donde optimizar puede ser maximizar o minimizar.
c j ,b i y a ij (i = 1, 2 ,... , m; j = 1, 2 ,... , n) son constantes determinadas por la tecno-
log´ıa del problema y xj (j = 1, 2 ,... , n) son las variables de decisi´on.
Unicamente un signo
(≤, =, ≥) ocurre para cada restricci´on. Algunas de las variables de decisi´on son declaradas no
negativas; m´as adelante mostraremos que cada variable irrestricta puede convertirse equiva-
lente a variables no negativas.
La restricci´on de no negatividad, para todas las variables de decisi´on, es esencial para el
desarrollo del m´etodo de soluci´on de los problemas de programaci´on lineal.
Los modelos de programaci´on lineal a menudo representan problemas de “asignaci´on”
en los cuales los recursos limitados se asignan a un n´umero de actividades, que compiten
por ellos. En funci´on de la formulaci´on anterior los coeficientes c j ,b i y a ij se interpretan
f´ısicamente como sigue:
Si bi es la cantidad disponible del recurso i, entonces aij es la cantidad del recurso i
consumida/(que debe asignarse) por/(a) cada unidad de la actividad j. El “valor” por unidad
de la cantidad j es cj.
1.1 Elementos que definen un problema de Programaci´on Lineal
En la tabla adjunta resumimos las formas est´andar y can´onica:
Problema de Minimizaci´on Problema de Maximizaci´on
Forma Est´andar
Minimizar
n
j=
c j x j
Sujeto a
n
j=
aij = bi,i=1, 2 ,...,m
x j
j=1, 2 ,...,n
Maximizar
n
j=
c j x j
Sujeto a
n
j=
aij = bi,i=1, 2 ,...,m
x j
j=1, 2 ,...,n
Forma Can´onica
Minimizar
n
j=
c j x j
Sujeto a
n
j=
a ij ≥ b i
i=1, 2 ,...,m
x j
j=1, 2 ,...,n
Maximizar
n
j=
c j x j
Sujeto a
n
j=
a ij ≤ b i
i=1, 2 ,...,m
x j
j=1, 2 ,...,n
La tabla que acabamos de representar toma la siguiente forma, si utilizamos notaci´on
matricial:
Problema de Minimizaci´on Problema de Maximizaci´on
Forma Est´andar
Minimizar ¯c¯x
Sujeto a
Ax¯ =
b
x ¯ ≥
Maximizar ¯c¯x
Sujeto a
A¯x =
b
x ¯ ≥
Forma Can´onica
Minimizar ¯c¯x
Sujeto a
Ax¯ ≥
b
x ¯ ≥
Maximizar ¯c¯x
Sujeto a
A¯x ≤
b
x ¯ ≥
donde ¯x ∈ R
n , A ∈ Mm×n es la matriz de restricciones.
Cualquier problema de programaci´on lineal puede escribirse en forma can´onica o en forma
est´andar, cuando se desee, de la siguiente forma:
Una desigualdad se puede transformar f´acilmente en una ecuaci´on. Por ejemplo, consi-
deremos la restricci´on dada por
n
j=
a ij x j ≥ b i
. Esta restricci´on se puede escribir en
forma de ecuaci´on sustrayendo la “variable de exceso” no negativa S i , obteniendo:
n ∑
j=
a ij x j
i = b i y S i
Similarmente la restricci´on
n
j=
a ij x j ≤ b i es equivalente a
n ∑
j=
aij xj + Si = bi y Si ≥ 0
donde se ha sumado la “variable de holgura” no negativa S i
As´ımismo, una ecuaci´on de la forma
n
j=
aij xj = bi se puede escribir como dos desi-
gualdades:
n ∑
j=
a ij x j ≤ b i y
n ∑
j=
a ij x j ≥ b i
Las cuales se pueden escribir, de forma equivalente:
O bien
n
j=
a ij x j ≤ b i ∑ n
j=
−aij xj ≤ −bi
O bien
n
j=
−a ij x j ≥ −b i ∑ n
j=
aij xj ≥ bi
seg´un nos interese.
8 Cap´ıtulo 1. El Problema de la Programaci´on Lineal
Como el m´etodo simplex, que es el m´etodo que resuelve los problemas de programaci´on
lineal, est´a dise˜nado para resolver programas lineales en los que todas las variables de
decisi´on son no negativas, tenemos que:
a) Si una variable xj no est´a restringida en su signo, entonces se puede reemplazar
por x
′
j
− x
′′
j
con x
′
j
≥ 0 y x
′′
j
≥ 0 (en efecto, basta con tomar x
′
j
= max{x j , 0 } y
x
′′
j
= max{−x j , 0 }). Esta descomposici´on no es ´unica, ya que podemos tomar una
u ≥ 0 tal que x j = (x
′
j
′′
j
b) Si una variable x j no se tiene restringida a ser no negativa y sin embargo se dispone
de la siguiente restricci´on xj ≥ lj (lj =cte), entonces autom´aticamente la nueva
variable x
′
j
= x j − l j es no negativa y en este caso reemplazar´ıamos x j por x
′
j
en el modelo.
c) An´alogamente, si una variable xj no se tiene restringida a ser no negativa y sin
embargo se dispone de la siguiente restricci´on x j ≤ u j (donde u j =cte) entonces
la sustituci´on x
′
j
= uj − xj produce una variable x
′
j
no negativa.
Otra manipulaci´on del problema consiste en convertir un problema de maximizaci´on en
un problema de minimizaci´on y viceversa.
Para ello, observemos que sobre cualquier regi´on se verifica que:
M´aximo
n ∑
j=
cj xj = −M´ınimo
n ∑
j=
−cj xj
de modo que un problema de maximizaci´on (minimizaci´on) se puede convertir en un
problema de minimizaci´on (maximizaci´on) multiplicando los coeficientes de la funci´on
objetivo por −1. Despu´es de completar la optimizaci´on del nuevo problema, el valor
objetivo ´optimo del problema original es −1 por el valor objetivo ´optimo del nuevo
problema.
Se desea a˜nadir a la dieta de ciertos animales de granja cantidades extra de tiamina, f´osfo-
ro y hierro. Para ello en el mercado existen dos preparados en polvo diferentes: el Fosfat´on y
el Ferrosforo. Estos contienen los tres nutrientes en las cantidades que se indican:
Tiamina F´osforo Hierro
Ferrosforo 0’15 mg/oz 0’75 mg/oz 1’30 mg/oz
Fosfat´on 0’10 mg/oz 1’70 mg/oz 1’10 mg/oz
Deseamos que cada animal reciba al d´ıa al menos 1’00 mg de tiamina, 7’50 mg de f´osforo
y 10’00 mg de hierro.
El costo de cada onza de ferrosforo es de 2 centavos y el de fosfat´on es de
5
3
de centavo
por onza. Determinar las cantidades de ferrosforo y fosfat´on que debemos administrar a cada
animal de forma que el costo de este suplemento a la dieta sea m´ınimo.
ON: Sean x 1 y x 2 las cantidades, en onzas, de ferrosforo y fosfat´on (desconocidas)
que debemos dar a los animales. Deseamos que el precio 2x 1
5
3
x 2 sea el menor posible, pero
que se consigan los aportes de los principios b´asicos que se desean, luego deseamos:
10 Cap´ıtulo 1. El Problema de la Programaci´on Lineal
Figura 1.1: F´abricas y dep´ositos
Llamaremos xij al n´umero de Kgs de harina que se env´ıan desde la f´abrica Fi al dep´osito
j
. Se trata de:
minimizar
m
i=
n
j=
c ij x ij
sujeto a
n
j=
x ij ≤ a i
i=1, 2 ,...,m ∑ m
i=
xij = bi,j=1, 2 ,...,n
x ij
i=1, 2 ,...,m j=1, 2 ,...,n
Si los a i y los b j son enteros ∀ i, ∀ j, la soluci´on de este tipo de problemas de transporte
es tambi´en entera, como ya veremos m´as adelante.
Suponemos
m ∑
i=
a i
n ∑
j=
b j
porque siempre es posible expresarlo de esta manera.
Si hay m´as oferta que demanda se a˜nade un destino ficticio que demanda la cantidad
de producto que se quedar´ıa en el origen.
Si hay m´as demanda que oferta, se a˜nade un origen ficticio que produce la cantidad de
producto que no llegar´ıa al destino.
Una unidad completa de un cierto producto consiste en 4 unidades del componente A y
3 unidades del componente B. Los dos componentes (A y B) se fabrican con dos materias
primas diferentes de las cuales se tienen disponibles 100 y 200 unidades, respectivamente.
Tres departamentos est´an en el proceso de producci´on y cada departamento utiliza un m´eto-
do diferente para fabricar los componentes. La siguiente tabla da los requisitos de materia
prima por pasada de producci´on y las unidades resultantes de cada componente, en cada uno
de los departamentos. El objetivo es determinar el n´umero de pasadas de producci´on para
cada departamento que maximizar´a el n´umero total de unidades completas del producto final.
Entrada (en
pasada de
unidades) por
producci´on
Salida (en
pasada de
unidades) por
producci´on
Departamento Materia prima 1 Materia prima 2 Componente A Componente B
1.2 Ejemplos de Optimizaci´on Lineal 11
ON: Denotamos por x i el n´umero de pasadas de producci´on por el departamento
i, con i = 1, 2 , 3.
El n´umero total de unidades de componente A producidas por los tres departamentos
son:
7 x 1
El n´umero total de unidades de componente B producidas por los tres departamentos
son:
5 x 1 + 9x 2 + 4x 3
Por otro lado, las restricciones correspondientes sobre las materias primas est´an dadas
como:
8 x 1
6 x 1 + 9x 2 + 8x 3 ≤ 200 para la materia prima 2
Ya que el objetivo es maximizar el n´umero total de unidades del producto final, y dado
que cada una de tales unidades requiere 4 unidades del componente A y 3 unidades del
componente B, el n´umero m´aximo de unidades del producto final no puede exceder el valor
m´as peque˜no de:
7 x 1
y
5 x 1
Por consiguiente, la funci´on objetivo ser´a:
Maximizar y = min
7 x 1
5 x 1
La funci´on objetivo anterior no es lineal. Sin embargo se puede usar una transformaci´on
que reducir´a el modelo anterior a un formato aceptable de programaci´on lineal.
Llamemos y = min
7 x 1 + 6x 2 + 8x 3
5 x 1 + 9x 2 + 4x 3
Entonces y es el n´umero final de unidades ensambladas (producto final), el cual es igual a
la menor de las dos expresiones. Ya que no se conoce con anterioridad qu´e expresi´on es m´as
peque˜na, la ecuaci´on anterior implica:
7 x 1
≥ y
5 x 1
≥ y
Realmente, por lo menos una de estas dos desigualdades se debe
mantener como ecuaci´on (igualdad en cualquier soluci´on).
De manera que el problema anterior se reduce al siguiente problema de programaci´on
lineal:
Maximizar y
Sujeto a 7 x 1 + 6x 2 + 8x 3 − 4 y ≥ 0
5 x 1
8 x 1 + 5x 2 + 3x 3 ≤ 100
6 x 1
x 1 , x 2 , x 3 , y ≥ 0
1.5 Casos Posibles 13
Los dos subcasos posibles se muestran en la figura 1.
Figura 1.2:
Optimo
Unico Finito
En ambos subcasos vemos que el ´optimo se alcanza en un punto externo de F.
En el subcaso de la izquierda F est´a acotada, mientras que en el subcaso de la derecha F
no est´a acotada.
Los dos primeros subcasos se muestran en la figura 1.
En el subcaso de la izquierda F est´a acotada y existen infinitos puntos ´optimos en una
arista finita, mientras que en el subcaso de la derecha F no est´a acotada y por lo tanto existen
infinitos puntos ´optimos en una arista infinita.
Figura 1.3: Infinitos Puntos de
Optimo Finito
El tercer subcaso se muestra en la figura 1.
Figura 1.4: Infinitos Puntos de
Optimo Finito
14 Cap´ıtulo 1. El Problema de la Programaci´on Lineal
En este ´ultimo subcaso F no est´a acotada; sin embargo, existen infinitos puntos ´optimos
en una arista que es finita.
Como se puede observar en todos los subcasos siempre existe al menos un punto extremo
´optimo.
S´olo puede darse si F es no acotada, tal y como se muestra en la figura 1.
Figura 1.5:
Optimo No Acotado
16 Cap´ıtulo 2. El M´etodo Simplex
Estando en dicho v´ertice x 0 , el valor de la funci´on objetivo es:
z 0 = ¯cx¯ 0 = (¯c B c¯ N
¯xB
x ¯ N
= (¯c B ¯c N
b
= ¯c B
b + ¯c N
0 = ¯c B
b
En definitiva,
z 0 = ¯c B
b
Si ahora lo que pretendemos es mejorar esa soluci´on, lo que debemos hacer es “echar a
andar” por una arista desde el v´ertice en el que nos econtramos.
Para ello, se dejan todas las variables no b´asicas a cero, excepto una (x k ), a la cual se le
dan valores positivos. Dicha variable no b´asica xk ser´a (por convenio) aquella que m´as mejore
la funci´on objetivo (“echar a andar” por aquella arista que m´as mejore la soluci´on).
Para determinar qui´en ser´a esa variable x k evaluamos el valor de la funci´on objetivo
conforme se van dando valores a las x j , habiendo partido del v´ertice x 0 , seg´un la siguiente
expresi´on:
z = ¯cx¯ = (¯cB c¯N )
¯xB
x ¯ N
= ¯cB x¯B + ¯cN x¯N = ¯cB
− 1 ¯ b −
j∈R
− 1 ¯aj xj
j∈R
¯cj xj =
= ¯cB B
− 1 ¯ b −
j∈R
(¯cB B
− 1 ¯aj − cj )xj
= z 0 −
j∈R
(zj − cj )xj
con zj = ¯cB B
− 1 ¯aj
Tomando aquella x k cuyo coeficiente sea (z k − c k ) = max{z j − c j } se tiene que:
¯x B
b − y¯ k x k
Una vez seleccionada x k , para evitar salirnos de la regi´on factible, el valor positivo m´aximo
que podr´a tomar xk ser´a el menor valor que haga que alguna de las variables b´asicas valga
cero. Reescribiendo la ´ultima expresi´on como:
xB 1
x B 2
x Br
xB m
b 1
b 2
b r
bm
y 1 k
y 2 k
y rk
ymk
x k
podemos decir que la primera variable b´asica x Bi que se hace cero es aquella que hace
m´ınimo el conjunto
b i
y ik
, y ik
Y por lo tanto, el m´aximo valor que podr´a tomar xk ser´a
x k
b r
y rk
= min
b i
y ik
, y ik
Una vez que se haya avanzado al nuevo v´ertice se comprueba si la funci´on objetivo se
mejora “echando a andar” por alguna de las nuevas aristas; en caso afirmativo, se reescribe
el problema en t´erminos de ese v´ertice y se repiten los c´alculos hasta encontrar la soluci´on
´optima del problema.
2.3 Soluciones ´Optimas, ´Unicas e Infinitas 17
Supongamos que ¯x
∗ es una s.b.f. del problema (P ) asociada a la base B de manera que
x¯∗ =
x¯
∗
B
¯x
∗
N
b
y supongamos, adem´as, que z j − c j ≤ 0 ∀ j ∈ R Es decir,
zj − cj = ¯cB y¯j − cj ≤ 0 ⇒ cB B
− 1 ¯aj − cj ≤ 0
entonces la s.b.f. ¯x
∗ es una s.b.f. ´optima para el problema (P ).
Dem.- Si llamamos z
∗ al valor de la funci´on objetivo en la s.b.f. ¯x
∗ y cogemos cualquier
otra soluci´on b´asica factible ¯x del problema (P ) entonces llamamos z al valor de la
funci´on objetivo en el punto ¯x, cumpliendo
z = z
∗ −
j∈R
(z j − c j )x j
z
∗ − z =
j∈R
(z j − c j )x j
y dado que xj ≥ 0, zj − cj ≤ 0 ∀ j ∈ R se tiene que
z
∗ − z =
j∈R
(zj − cj )xj ≤ 0 ⇒ z
∗ ≤ z
Si ahora tenemos una s.b.f. ¯x
∗ para la cual se tiene que
z j − c j = ¯c B y¯ j − c j < 0 ⇒ c B
− 1 ¯a j − c j
entonces la s.b.f. ¯x
∗ es la ´unica s.b.f. ´optima para el ‘problema (P ).
Dem.- Como z j − c j < 0 ∀ j ∈ R ⇒ z j − c j ≤ 0 ⇒ x
∗ es una soluci´on ´optima.
Para demostar que es ´unica, sea ¯x una s.b.f. distinta de ¯x
∗ ; por lo tanto, ¯x tiene una
componente no b´asica positiva (por ejemplo, x l
0), pues de lo contrario ¯x y ¯x
∗
coincidir´ıan.
Al igual que en el caso anterior,
z = z
∗ −
j∈R
(z j − c j )x j ⇒ z
∗ − z =
j∈R
(z j − c j )x j
ahora bien,
j∈R
(z j − c j )x j
j∈R, j 6 =l
(z j − c j )x j
Por lo tanto,
z
∗ − z ≤ (z l − c l )x l
y como z l − c l < 0 (ya que zj − cj < 0 ∀ j ∈ R y x l
- se tiene que
(z l − c l )x l < 0 ⇒ z
∗ − z < 0 ⇒ z
∗ < z
Sea ¯x
∗ una s.b.f. del problema (P ) para la cual se tiene que
zj − cj ≤ 0 ∀ j ∈ R y adem´as, zk − ck = 0 para alg´un k ∈ R
Entonces podemos asegurar que existen infinitas s.b.f. para el problema (P ).
Dem.- Para “echar a andar” por una arista se dejan todas las variables no b´asicas a
cero, excepto una. Sea ´esta xk.
Por lo tanto, del mismo modo que antes, se tiene que
z = z
∗ −
j∈R
(z j − c j )x j = (z k − c k )x k ⇒ z
∗ − z = (z k − c k )x k ⇒ z
∗ − z = 0 ⇒ z
∗ = z
2.4 El M´etodo S´ımplex en Formato Tabla 19
0 ¯cB B
− 1 N − ¯cN ¯cB B
b
− 1 N B
b
B
2
B
2
recibe el nombre de “Tabla Simplex” y nosotros la escribiremos como sigue:
Variables B´asicas z x¯ B x¯ N
1
z 1
0 ¯c B
− 1 N − c¯ N ¯c B
b
xB
− 1 N
b
con la diferencia de que nosotros no ordenaremos las variables en b´asicas y no b´asicas (sim-
plemente tendremos en cuenta cu´ales son, pero sin ordenarlas expl´ıcitamente en la tabla).
Una vez dada la tabla simplex, si queremos mejorar la funci´on objetivo (en caso de que
sea posible) debemos escoger una variable no b´asica “pivote” que entre a formar parte de la
nueva base y por lo tanto, reescribir de nuevo la tabla, en funci´on de esa nueva base.
La tabla antes de pivotar ser´ıa:
z xB 1 · · · xB r · · · xB m · · · xj · · · xk · · · L.D.
z 1 0 · · · 0 · · · 0 · · · z j − c j · · · z k − c k · · · ¯c B
b
xB 1 0 1 · · · 0 · · · 0 · · · y 1 j · · · y 1 k · · ·
b 1
x Br 0 0 · · · 1 · · · 0 · · · y rj · · · y rk
b r
x Bm 0 0 · · · 0 · · · 1 · · · y mj · · · y mk
b m
Y despu´es de pivotar, suponiendo que la variable no b´asica que entra es xk, y la variable
b´asica que sale es x Br , la tabla queda como sigue:
z x B 1 · · · x Br · · · x Bm · · · x j · · · x k
z 1 0 · · ·
c k − z k
y rk
· · · 0 · · · (zj − cj ) −
y rj
y rk
(zk − ck) · · · 0 · · · ¯cB
b − (zk − ck)
b r
y rk
x B 1
−y 1 k
y rk
· · · 0 · · · y 1 j
y rj
y rk
y 1 k
b 1
y 1 k
y rk
b r
x Br
yrk
yrj
yrk
br
yrk
xB m
−y mk
y rk
· · · 1 · · · ymj −
y rj
y rk
ymk · · · 0 · · ·
bm −
y mk
y rk
br
Ejemplo 2.1 Resolver el siguiente problema mediante el m´etodo s´ımplex en formato tabla:
Minimizar x 1 + x 2 − 4 x 3
Sujeto a x 1
x 1 + x 2 − x 3 ≤ 2
−x 1
x 1 , x 2 , x 3
Introducimos las variables de holgura no negativas x 4 , x 5 , x 6
Minimizar x 1
Sujeto a x 1 + x 2 + 2x 3 + x 4 = 9
x 1
−x 1 + x 2 + x 3 + x 6 = 4
x 1 , x 2 , x 3 , x 4 , x 5 , x 6
20 Cap´ıtulo 2. El M´etodo Simplex
Tomamos como base inicial B = (¯a 4 , ¯a 5 , a¯ 6 ), teni´endose la siguiente tabla simplex:
z x 1 x 2 x 3 x 4 x 5 x 6
z 1 − 1 − 1 4 0 0 0 0 raz´on
x 4
′ 5
x 5 0 1 1 − 1 0 1 0 2
x 6
Dado que z 3 − c 3 = 4 es la ´unica que es ≥ 0 , ser´a x 3 la variable no b´asica pivote que
entrar´a a formar parte de la nueva base.
La variable b´asica que dejar´a de serlo es x 6 , ya que de todas las yi 3 (con i ∈ { 4 , 5 , 6 })
positivas (2 y 1 en nuestro caso), es la que corresponde con x 6 la que hace m´ınima la raz´on
(4 en nuestro caso).
Por lo tanto, la nueva tabla ser´a:
z x 1 x 2 x 3 x 4 x 5 x 6
z 1 3 − 5 0 0 0 − 4 − 16 raz´on
x 4
x 5 0 0 2 0 0 1 1 6
x 3
Por la misma raz´on que antes, ahora la variable que sale de la base es x 4 y la que entra
es x 1 , teni´endose la siguiente tabla:
z x 1 x 2 x 3 x 4 x 5 x 6 L.D.
z 1 0 − 4 0 − 1 0 − 2 − 17
x 1 0 1 −
1
3
1
3
2
3
1
3
x 5
x 3 0 0
2
3
1
3
1
3
13
3
Y como ahora z j − c j < 0 ∀ j ∈ R la soluci´on obtenida es ´optima y ´unica, siendo ´esta
x 1 =
, x 2 = 0, x 3 =
z = − 17
Dado el problema (P )
Min ¯cx¯
s.a. Ax¯ =
b
¯x ≥
con
b ≥
0, pueden ocurrir dos cosas:
orden m, en cuyo caso ya disponemos de una s.b.f y estamos en condiciones de resolver
el problema mediante el m´etodo s´ımplex.
La soluci´on pasa, entonces, por a˜nadir (a lo sumo
2 ) m variables de decisi´on nuevas,
llamadas “variables artificiales” de la siguiente manera:
2 Se dice “a lo sumo” porque podr´ıa darse el caso de que tuvi´eramos ya algunos vecores linealmente inde-
pendientes y s´olo tuvi´eramos que a˜nadir los necesarios para llegar hasta los m totales.