





























Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Sistemas de ecuaciones lineales, matrices, determinantes, vectores, recta y plano, etc. hasta espacios vectoriales y autovectores y autovalores. espero que les sea util.
Tipo: Apuntes
1 / 37
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
Existencia y unicidad:
¿Qué es un sistema de ecuaciones lineales o SEL?
Es un conjunto finito de ecuaciones lineales, es decir ecuaciones de primer grado (ecuaciones cuyo mayor exponente es 1), con una cantidad finita de incógnitas al que se le busca una solución en común de todas las incógnitas que satisfacen todas las ecuaciones. Ejemplo:
¿Cómo se pueden clasificar los SEL?
Se clasifican dependiendo la cantidad de soluciones que cumplan para todo el sistema:
¿Cuántos tipos de SEL hay?
Existen los SEL homogéneos (SELH) y los SEL no homogéneos (SELH con la H tachada). Los SEL homogéneos son los que su constante o término independiente es 0.
¿Cómo es la representación matricial?
La matriz de coeficientes de un SEL es una forma de representar dicho SEL de un forma más simple, dejando solamente los coeficientes de cada una de las variables. Una matriz aumentada es aquella que
además de dejar los coeficientes, también deja una sección aparte para los términos independientes correspondientes de cada ecuación.
¿Cómo se sabe si una matriz está en su forma escalonada reducida por renglones?
Una matriz está en su FER si:
¿Qué métodos se utilizan para resolver un SEL?
Las formas principales son la eliminación de Gauss-Jordan y la eliminación Gaussiana, ambas involucran llevar a la matriz ampliada de coeficientes del sistema a una forma escalonada (la mitad por debajo de la diagonal principal de la matriz tiene solamente ceros) en el caso de la eliminación gaussiana y escalonada reducida (la diagonal principal es igual a 1 y el resto es ceros excepto los términos independientes) con la eliminación de gauss-jordan mediante operaciones elementales.
¿Cuáles son las operaciones elementales?
Las siguientes operaciones se pueden realizar sobre las filas de una matriz:
Teorema de Rouché-Frobenius:
¿Qué es una matriz?
Una matriz es un arreglo bidimensional de mxn elementos, donde los elementos están acomodados en m filas y n columnas.
¿Cómo se multiplica una matriz por un escalar? Dada una matriz A y un escalar k, los elementos de la matriz resultante D: dij = aij*k A esta operación se le llama “Ley de composición interna”.
Propiedades de la suma y el producto escalar de matrices
Sean A, B y C matrices de mxn y k y j escalares:
¿Cómo se multiplican las matrices o los vectores?
El caso más simple son los vectores, dónde dados dos vectores a y b, siendo sus componentes ai y bi respectivamente, se deben multiplicar a 1 y b 1 , a 2 y b 2 , y así respectivamente hasta llegar a an y bn siendo n el tamaño del vector, para luego sumar los resultados de esas n multiplicaciones. Este producto escalar se puede interpretar como una función que tiene como entrada 2 vectores y como salida 1 escalar. Las propiedades de este producto escalar son: Dados dos vectores a y b y un escalar k:
En el caso de las matrices, se vuelve más complejo debido a que es un arreglo bidimensional. Para multiplicar dos matrices primero hay que tener en cuenta su tamaño: ⚠ Dos matrices A y B pueden ser multiplicadas si A tiene el mismo número de columnas que B de filas ⚠. Dadas A= (aij) (i=1..m; j..n) y B(bij) (i=1..n; j=1..p) existe una matriz resultante C (cij) (i=1..m; j=1..p) tal que sus elementos sean:
cij = Fi(a)Cj(b) = aikbkj= ai1b1j + ai2b2j + ai3b3j + … + ainbnj 𝑘=
𝑛 ∑
Propiedades del producto matricial:
Inversa de una matriz
Una matriz cuadrada es inversa de otra si al multiplicarlas, su resultado es la matriz identidad del mismo tamaño.
⚠Si |A|=0 o no existe, entonces A no es invertible⚠
¿Cómo se encuentra la inversa de una matriz?
De forma general:
A-1= (^) |𝐴|𝐴
Inversa por adjunta:
si |A| ≠0, A -1= (^) |𝐴|^1 *Adj(A)
Traspuesta de una matriz
Sea A=(aij) una matriz de mxn, su traspuesta AT^ es una matriz de nxm que se obtiene de intercambiar los renglones por las columnas de A.
Propiedades:
Matriz elemental
Una matriz de nxn llamada E se denomina matriz elemental se puede obtener a partir de aplicarle una operación elemental a la matriz identidad In.
Teorema: sea A una matriz cuadrada, entonces A se puede escribir como el producto de matrices elementales y una matriz triangular superior U.
¿Cómo expresar una matriz invertible como producto de matrices elementales?
Propiedades de los determinantes
Propiedades que anulan a los determinantes
Cómo las operaciones elementales afectan al determinante
¿Qué es un vector geométrico?
Un vector es un segmento orientado 𝐴𝐵, donde el punto A es el origen del vector y el B es el extremo del mismo.
Tipos de vectores
Datos de vital importancia
Operaciones de los vectores
a. Interpretación geometrica: ||uxv||=||u||.||v||.sen(α), donde ||uxv||= al área del paralelogramo que forman ambos vectores.
o también
a. Interpretación geométrica: |u.(vxw)| es el volumen del paralelepipedo que forman los tres vectores
Condiciones de paralelismo, ortogonalidad y coplanaridad
Combinación lineal de vectores (CL)
Dado v, un vector con componentes reales y A, un conjunto finito de vectores (A={u 1 ,...,uk}). v es
combinación lineal de A ⇔∃αi ∈ ℝ, con i de 1 a k, tal que v= αi*ui. En otras palabras, v es 𝑖=
𝑘 ∑
combinación lineal de una cantidad finita de vectores si v se puede formar multiplicando esos vectores por distintos valores, si no existe uno de esos valores, entonces v no es combinación lineal.
Dependencia lineal
Dado A, un conjunto finito de vectores (A={u 1 ,...,uk}) y la CL del vector 0 con A 0= αi*u 𝑖=
𝑘 ∑
−𝐴𝐵 𝑥 + −𝐶𝐵 = 𝑦 donde m= −𝐴𝐵 y b= −𝐶𝐵
Ax+By=-C Despejo el término independiente −𝐴 𝐶 𝑥 +^
−𝐵 𝐶 𝑦 = 1
−𝐶^ 𝑥^ Donde a=^ y b= 𝐴
𝐵
Ecuaciones de la recta en el espacio (R^3 ) y su transición de una a la otra
de (a): α= 𝑥+𝑥0𝑣1 , con v1 distinto de 0.
de (b): α= 𝑦+𝑦0𝑣2 , con v2 distinto de 0.
de (c): α= 𝑧+𝑧0𝑣
Y se igualan ambos valores de α para obtener:
L: 𝑥+𝑥0𝑣1 = 𝑦+𝑦0𝑣2 =^ 𝑧+𝑧0𝑣
Concepto de plano
Son los puntos en el plano P(x,y,z) que verifican 𝑃𝑜𝑃. 𝑛 = 0Donde Po(x0,y0,z0) es un punto perteneciente al plano π, n=(A,B,C) es un vector normal perpendicular al plano π.
Ecuaciones del plano
A partir de
𝑃𝑜𝑃. 𝑛 = 0 (x-x0,y-y0,z-z0)*(A,B,C)=
π: Ax+By+Cz+D= Ax+By+Cz=-D 𝐴 −𝐷 𝑥 +^
𝐵 −𝐷 𝑦 +^
𝐶 −𝐷 𝑧 = 1 −𝐷^ 𝑥^ donde a=^ ;b=^ ;c= 𝐴
𝐵
𝐶
𝑦 𝑏 +^
𝑧 𝑐 𝑧 = 1 Donde: P1(a,0,0) = π∩eje x P2(0,b,0) = π∩eje y P3(0,0,c) = π∩eje z
Posiciones relativas
Posición u.n A
Recta contenida en el plano =0 ∈π
Recta y plano paralelos =0 ∉π
Recta y plano secantes ≠
Ángulos
α=L 1 ^L 2 =u^v=cos-1( (^) ||𝑢||.||𝑣||^ 𝑢.𝑣 )
α=π 1 ^π 2 =n 1 ^n 2 =cos-1( (^) ||𝑛1||.||𝑛2||^ 𝑛1.𝑛2 )
α=π^L=u^v=cos-1( (^) ||𝑛||.||𝑢||^ 𝑛.𝑢 )
Distancias
d(P,L) = proynPoP^ = |||𝑃𝑜𝑃.𝑛||𝑛|| 2 |||
d(Po,L) = ||𝑃𝑜𝑃 𝑥 𝑢||||𝑢||
d(L 1 ,L 2 ) = |𝐶1 − 𝐶2| 𝐴^2 +𝐵^2
Busco un punto cualquiera de un plano y hago distancia de punto a plano.
Concepto
¿Qué es un espacio vectorial? Definición coloquial: Un espacio vectorial es un conjunto no vacío V de objetos, llamados vectores, en el que se han definido dos operaciones: la suma y el producto por un escalar (número real) sujetas a los diez axiomas que se dan a continuación. Los axiomas deben ser válidos para todos los vectores u, v y w en V y todos los escalares α y β reales. Llamamos u+v a la suma de vectores en V, y αv al producto de un número real α por un vector v∈V.
Definición matemática: un espacio vectorial es una cuaterna de la forma (V,+,K,*) Siendo V un conjunto no vacío de elementos de tipo V, + es una operación que cumple la ley de composición interna (LCI), K es un conjunto de escalares con estructura de cuerpo (Q,R,C), y * es una operación que cumple la ley de composición externa. Esta cuaterna es espacio vectorial ⇔cumple con los siguientes axiomas Siendo u, v y w elementos de V y α y β elementos de K:
⚠V tiene que estar contenido en K para que cumplan los axiomas.⚠
Subespacios
Dado un espacio vectorial (V,+,K,*) y S un subconjunto no vacío de V. S es un Subespacio (SE) de V ⇔ S es E.V. bajo las operaciones de V.
Teorema 1- S es subespacio de V ⇔ cumple los siguientes axiomas:
Como analizar si un subconjunto de V es subespacio: dado V, un EV (R3,+,K,*) y S{(x,y,z)| x+y-z=0}, comprobar si S es subespacio de V por teorema 1
Base de un espacio vectorial
Dado un E.V. (V,+,K,*) y A={u 1 , ..., up}subconjunto de V, A es base de V ⇔
Teorema: Dado un E.V. (V,+,K,*) y A={u 1 , ..., up}subconjunto de V, A es base de V
Bases canónicas
Ejemplos de bases canónicas:
Dimensión de un EV
La dimensión de un espacio vectorial V es la cantidad de vectores que componen una base de V. Si B={v1,v2,…,vn} es una base de V, la dimensión de V es n y lo indicamos como dim(V)=n
Si no existe una base de V formada por un conjunto finito de vectores, se dice que V es un espacio de dimensión infinita. Un ejemplo es el espacio de todos los polinomios (de cualquier grado).
Como el vector nulo es linealmente dependiente, el espacio {0V} no tiene base. A este espacio compuesto únicamente por el vector nulo, se le asigna dimensión cero: dim({0V})=
Coordenadas de un vector respecto a una base
Dado (V,+,K,*), B={u 1 ,u 2 ,...,un} una base de V y u un elemento de V, las coordenadas de u respecto a B son los escalares de la CL de u con B: uB=(α 1 ,α 2 ,α 3 ,...,αn)
Matriz cambio de base
Dado (V,+,K,*), B 1 ={u 1 ,u 2 ,...,un} y B 2 ={v 1 ,v 2 ,...,vn} bases de V, la matriz cambio de B 1 a B 2 tiene como columnas coordenadas de los elementos de B 1 con respecto a B 2 : AB1B
Teorema: AB1B2 uB1=uB2 y también uB1= (AB1B2 )-1uB
Espacios fundamentales de una matriz (EFM)
Dada A perteneciente a Rmxn^ los EFM son:
Teorema 1: Si una matriz A es equivalente por renglones a una matriz B entonces el EF de A = EF de B: A~B → Fil(A)=Fil(B)
Teorema 2: Si una matriz A está en su forma escalonada, entonces una base del EF de A es igual a las filas no nulas de su forma escalonada: FE(A) → Base de EF = filas no nulas de FE
Teorema 3: R(A)=Dim(Fil(A))=Dim(Col(A))
Teorema 4: Dim(Fil(A)), Dim(Col(A)), R(A) + Nulidad(A)= #Columnas
Producto interno
Definición Dado un EV (V,+,K,*) y una función <> que a cada par de elementos de V le asocia un escalar de K. La función es producto interno ⇔ cumple los siguientes axiomas:
vectores producto interno
norma ||v||=√(v 12 + … + vn^2 ). (^) ||u||= < 𝑢, 𝑢 >
angulo entre vectores (^) cos-1^ ( 𝑢.𝑣 ) = α ||𝑢||.||𝑣|| cos
-1 (^) ( <𝑢,𝑣> ) = α ||𝑢||.||𝑣||
condición de ortogonalidad
u.v=0 <u,v>=
proyección vectorial (^) proyvu^ = 𝑢.𝑣 .v ||𝑣||^2 proyv
u (^) = <𝑢,𝑣>.v <𝑣,𝑣>
proyección escalar (^) ||proyecciónvu|| = ||𝑢.𝑣|| ||𝑣||
|| || ||proyecciónvu|| = |<𝑢,𝑣>| ||𝑣||
distancia entre vectores d(u,v)=||u-v||
Bases ortonormales y ortogonales
Conjunto ortogonal: Dado el EV (V,+,K,*) con producto interno definido y S={u 1 , …, un} un subconjunto de V S es ortogonal ⇔ <ui,uj>= para todo i distinto de j, es decir que todos los elementos tomados de a pares son ortogonales entre sí.
S es ortonormal ⇔S es ortonormal, y además todos sus elementos son de norma 1.
Base ortogonal Dado el EV (V,+,K,*) con producto interno definido y S={u 1 , …, un} un subconjunto ortogonal de V. Si S es base, se llama base ortogonal.