Matemáticas/Cálculo en una variable/Texto completo

Limite X cuando tiende a 0 de sen 4x sobre 12

Introducción

editar
← Contenido Introducción Sucesiones →
Cálculo en una variable


Que significa cálculo en una variable

editar
 

Con cálculo en una variable nos referimos al área de conocimientos de las ciencias exactas que se encarga de analizar diferentes propiedades de las funciones matemáticas que dependen de una única variable. Una variable es una forma simbólica de denotar a algo que tiene un valor pero que no esta definido, sino que puede tomar cualquiera de los valores contenidos en un cierto conjunto. Ese conjunto recibe el nombre de dominio de la función.

 

En virtud de que la variable no tiene un valor constante, la función tampoco; pero cuando le damos un valor a la variable (un valor cualquiera, elegido entre todos los que nos permite el dominio de la función), el valor de la función quedará fijado. Es por esto que recibe ese nombre ya que su valor se obtiene en base a o en función de el valor de la variable. El conjunto de todos los valores que puede tomar la función recibe el nombre de conjunto imagen o recorrido, de modo que una función se puede considerar como una aplicación entre dos conjuntos: el conjunto origen (dominio) y el conjunto imagen (recorrido). Dado que podemos definir la aplicación de infinitas maneras, existen tantas funciones como la imaginación de uno pueda concebir, y para cada una de ellas el análisis matemático da resultados diferentes. No obstante, hay ciertas estructuras de funciones genéricas que presentan un comportamiento extrapolable a todas las que se parecen a ellas.

Básicamente, pues, el objeto de estudio del cálculo en una variable, es analizar cada una de estas funciones tipo, sabiendo que el resto de las funciones son casos particulares provenientes de estos contados casos generales.

Introducción

editar

La disciplina matemática que hoy conocemos como cálculo se desarrolló básicamente en el siglo XVII. Esto fue gracias a las enormes aportaciones hechas por Sir Isaac Newton y Gottfried Wilhelm von Leibniz, quienes, de forma independiente, inventaron el cálculo diferencial pudiendo asi hacer más fácil el trabajo del matemático.

La base del cálculo es el concepto de límite, el cual consiste en ir analizando el comportamiento de las funciones en puntos cada vez más cercanos a cierto punto particular, pero sin necesidad de llegar nunca a evaluar la función en dicho punto.


Sucesiones

editar

Definiciones

editar

Definición Una sucesión es una función de  

Puesto que podemos listar los enteros 1, 2, 3,... podemos de igual manera listar una sucesión f(1), f(2), f(3), f(4), … Denotaremos una sucesión por una letra mayúscula itálica, el conjunto de los valores reales que la función toma por la misma letra mayúscula no-itálica, y los elementos de ese conjunto con la correspondiente letra minúscula, y subíndices. Por ejemplo la sucesión S toma valores en el conjunto S con elementos  .

S es un conjunto de reales, S es una función de los enteros en los reales, dos conceptos diferentes. Si somos rigurosos debemos ser cuidadosos de no confundir las dos, pero en el uso general ambos conceptos son intercambiables.

Podemos también denotar sucesiones por su función. Por ejemplo si decimos que la función S es 3k, entonces la sucesión consiste en 3, 6, 9,….

En particular estamos interesados en tipos especiales de sucesiones que convergen. Introducimos primero tres definiciones.

Definición 1: Una sucesión S es una sucesión de Cauchy si para todo  , existe un entero   tal que para todo  ,  

Definición 2: Una sucesión, S, está acotada superiormente/inferiormente si el conjunto, S, de todos sus elementos está acotada superiormente/inferiormente

Definición 3: Una sucesión, S, converge si existe un número, s, tal que para todo  , existe un entero   tal que para todo  ,   Si la sucesión es convergente llamaremos al número s el límite de la sucesión S. Escribimos,  

Teorema 0: Si existe un número, s, tal que para todo  , existe un entero   tal que para todo  ,   donde f es tal que δ es menor o igual que algún δ(ε) implica que f(δ)≤ε, f(x) es positiva para todo x positivo, y f(0)=0 entonces S converge.

Prueba Para cualquier ε consideremos n(δ(ε)).

Si n>n(δ(ε)) entonces

Por las condiciones dadas,  

Luego, S cumple las condiciones en la Definición 3.

Este teorema indica que es suficiente probar que la diferencia entre un término y el límite es menor que alguna función positiva continua de ε

Cauchy = convergente

editar

Probaremos que una sucesión es convergente si y sólo si es de Cauchy. Para esto necesitamos algunos teoremas preliminares.

Teorema 1: Toda sucesión de Cauchy está acotada superiormente

Prueba:

  • Por la definición 1 con ε=1
 
  • Definamos
 
  • Entonces, por definición
 
  • Si n>N
 
  • Por lo tanto la sucesión satisface la definición 2 con  

La sucesión de Cauchy está acotada superiormente.

Teorema 2: Toda sucesión de Cauchy está acotada inferiormente

Prueba: Como en el Teorema 1, con los cambios obvios. Ejercicio: Probar esto

Definición 4

  • una sucesión es monótonamente creciente si para todo n,m n≥m implies an≥am
  • una sucesión es monótonamente decreciente si para todo n,m n≥m implies an≤am

Teorema 3 a/Si S es acotada superiormente y monótonamente creciente, S converge a sup S b/Si S es acotada inferiormente y monótonamente decreciente, S converge a inf S

Prueba: a)Para una sucesión monótonamente creciente y acotada superiormenteS, y para todo ε>0, debemos tener

sN>sup S -ε
para algún N, si no sup S -ε es una cota superior de S, contradiciendo la

definición de sup

para todo n>N, sN<sn, por definición
combinando con la primera desigualdad para obtener
sup S>sn>sup S -ε
reordenando
|sn-sup S|<ε para todo n mayor que algún N
Hence sup S es el límite de S

3b) se prueba similarmente


Teorema 4 (The sandwich teorema)

Dadas tres sucesiones, R, S , T,
Si R y T convergen ambas, lim R=lim T y
 
la sucesión S converge al mismo límite.

Prueba

Sea s=lim R = lim T
Para cualquier ε>0, por definición de convergencia, existen M, N tal que
 
 
Combinando estas dos desigualdades con las condiciones para R y T da
 
para todo n mayor que el máximo de M y N
Después de reordenar, S satisface la definición de convergencia, con límite s,

y n(ε)=max {M,N}

Teorema 5 Si R, y S son ambas sucesiones convergentes

 

Teorema: Una sucesión S es convergente si y sólo si es de Cauchy.

1/ Convergencia implica Cauchy

Supongamos S es convergente, con límite s
Para un ε>0, elijamos n tal que
 
(siempre es posible por definición de convergencia)
Por la desigualdad triangular,  
 , for j,k>n
Esta es la definición de sucesión de Cauchy.

2/ Cauchy implica convergencia<

Sea S una sucesión de Cauchy
Definamos dos sucesiones R y T por
 
 
R es monótonamente creciente. Similarmente T es monótonamente decreciente.
 
de modo que R y T están acotadas superiormente y inferiormente respectivamente.
Siendo acotadas y monótonas, convergen a su supremo e ínfimo respectivamente.
 
Por el teorema 5 puesto que rn≤tn para todo n, r ≤ t
Si, para algún N, todo sn with n>N es mayor que r, r es una cota inferior de los sn
pero es también una cota superior.
Para r ser ambas cosas, los sn deben ser constantes, haciendo la serie trivialmente convergente.
Similarmente para t.
Entonces, para todo N, deben existir n, m mayores que N, con
 
 
Si r≠t esto contradice la definición of Cauchy, luego r=t
Pero S está acotada entre R y T, por lo tanto por el teorema del sandwhich, S es convergente

Podemos usar ahora Cauchy y convergente intercambiablemente, según convenga. A menudo probaremos que una sucesión es convergente probando que es de Cauchy.

Operaciones con sucesiones

editar

Si podemos sumar, multiplicar, y dividir sucesiones en la manera obvia, entonces el límite de una suma/producto/cociente de sucesiones será la suma/producto/cociente de sus límites.

Definimos (S+T) por (s+t)n=sn+tn

La suma de sucesiones hereda las propiedades de grupo de los reales.

Si S y T convergen ambas, a s y t respectivamente, entonces para todo ε>0,

 

(definición de límite)

  hence
 

Luego, por definición de límite, S+T converge a s+t

Definimos (ST) por (st)n=sntn

El producto de sucesiones hereda conmutatividad y asociatividad de los reales.

Si S y T convergen ambas, a s y t respectivamente, entonces para todo ε>0,

 

(definición de límite)

 
 
 

El lado derecho es una función monótona creciente de ε, por consiguiente puede ser reemplazado por ε, Luego, por definición de límite, S'T converge a s't

Series

editar

Introducción

editar

Una serie aritmética, o suma compleja, es la suma de una sucesión de términos. Por ejemplo, una serie interesante que aparece en muchos problemas en ciencia, ingeniería, y matemática es la serie geométrica   donde   indica que la serie continúa indefinidamente.

Una manera común de estudiar una serie particular (siguiendo a Cauchy) es definir una secuencia que consiste en la suma de los primeros   términos.

Por ejemplo, para estudiar la serie geométrica podemos considerar la secuencia que suma los primeros   términos:

 

Por lo general, estudiando la secuencia de sumas parciales podemos entender el comportamiento de la serie infinita entera.

Dos de las cuestiones más importantes sobre una serie son

  • Converge?
  • Si es así, a dónde?

Por ejemplo, es fácil ver que para  , la serie geométrica   no converge a un número finito (es decir, diverge a infinito). Para ver esto, notemos que cada vez que aumentamos el número de términos en la serie   aumenta. Quizás un hecho más sorprendente e interesante es que para  ,   converge a un valor finito.

Específicamente, es posible demostrar que

 

De hecho, consideremos la cantidad:

 

Puesto que   cuando   para  , esto demuestra que   cuando  . La cantidad   es diferente a cero y no depende de   así que podemos dividir por ella y llegar a la fórmula que deseamos.

Nos gustaría poder obtener conclusiones similares sobre cualquier serie.

Desafortunadamente, no hay un modo simple de sumar una serie. Lo más que podremos hacer en la mayoría de los casos es determinar si converge. Las series geométricas y telescópicas son los únicos tipos de series en las cuales se puede encontrar fácilmente la suma.

Convergencia

editar

Es obvio que para que una serie converja, los an deben tender a cero, pero esto no es suficiente. Consideremos la serie armónica, la suma de 1/n, y agrupemos los términos

 

Cuando m tiende a infinito, también lo hace la suma final, por lo tanto la serie diverge.

Podemos también deducir algo sobre cuán rápidamente diverge. Usando el mismo agrupamiento de términos, podemos obtener un límite superior de la suma de los primeros términos, las sumas parciales.

 

o

 

y las sumas parciales aumentan como log m, muy lentamente.

Notemos que para descubrir esto, comparamos los términos de la serie armónica con una serie que sabíamos divergente.

Esto es una prueba de convergencia (también conocida como prueba directa de comparación) que podemos aplicar a cualquier par de series.

  • Si bn converge y |an|≤|bn| entonces an converge.
  • Si bn diverge y |an|≥|bn| entonces an diverge.

Existen muchas de tales pruebas, las más importantes de las cuales describiremos en este capítulo.

Convergencia absoluta

editar

Teorema: Si la serie de valores absolutos,  , converge, entonces también lo hace la serie  

Decimos que tal serie es absolutamente convergente o que converge absolutamente.

El recíproco no es cierto. La serie 1-1/2+1/3-1/4... converge, aunque la serie de sus valores absolutos diverge.

Una serie como esta que converge, pero no absolutamente, se dice que es condicionalmente convergente o que converge condicionalmente.

Si una serie converge absolutamente, podemos sumar los términos en cualquier orden que queramos y el límite será siempre el mismo. Si converge una serie condicional, el cambio de los términos cambia el límite.

De hecho, podemos hacer que la serie converge a cualquier límite que deseemos eligiendo un cambio conveniente. P.ej., en la serie 1-1/2+1/3-1/4..., podemos sumar solamente términos positivos hasta que la suma parcial excede de 100, restamos el 1/2, sumamos solamente términos positivos hasta que la suma parcial excede de 100, restamos 1/4, etcétera, consiguiendo una secuencia con los mismos términos que converja a 100.

Esto hace que sea más fácil trabajar con una serie absolutamente convergente. Así, todas excepto una de las pruebas de convergencia en este capítulo serán para series cuyos términos sean todos positivos, que deben ser series absolutamente convergentes o divergentes. La otra serie será estudiada considerando la serie correspondiente de valores absolutos.

Prueba del cociente

editar

Sea una serie con términos an, todos positivos, si

 

entonces

  • la serie converge si r<1
  • la serie diverge si r>1
  • si r=1, la prueba no es concluyente.

P. ej., supongamos que

 

entonces

 

luego esta serie converge.

Prueba de la integral

editar

Si f(x) es una función monótonamente decreciente, siempre positiva, entonces la serie

 

converge si y solo si la integral

 

converge.

P. ej., consideremos f(x)=1/xp, para p fijo.

Si p=1 esta es la serie armónica, que diverge. Si p<1 cada término es mayor que la serie armónica, luego diverge. Si p>1 entonces

 

La integral converge, para p>1, luego la serie converge.

Podemos probar que la prueba funciona escribiendo la integral como

 

y comparando cada una de las integrales con rectángulos, dando las desigualdades

 

Aplicando entonces estas a la suma demuestra la convergencia.

Funciones

editar
 

Una función es una relación entre dos conjuntos A y B, donde a cada elemento de A le corresponde un único elemento de B.
El conjunto de todos los elementos de B relacionados con algún elemento de A se denomina rango, o conjunto imagen y a cada elemento del conjunto B le denominamos imagen de algún elemento del conjunto A.

Notación usual:

 

Donde:

 : es la función.
 : es la variable independiente.
 : es la variable dependiente.

Dominio: Es el conjunto de todos los valores que puede tomar la variable independiente " ".

Rango o codominio: Es el conjunto de todos los valores que puede tomar una función " ", dependiendo de los valores de " ".

Funciones Iguales: Dos funciones   y   son iguales si y sólo si se cumplen las siguientes condiciones:

  1. Ambas funciones tienen el mismo dominio.
  2. Para todo valor de " " que pertenece al dominio de   y  , se cumple que el rango de   es igual al rango de  .

Ejemplo

editar
 
 

Tenemos que el dominio de   son los números reales, mientras que el dominio de la función   son los números reales excepto el número -2.

Por lo que no se cumple la primera condición, entonces   y   no son iguales.

¿Cómo identificar una función de manera práctica?
Para identificar una función, hay que representarla gráficamente y trazar varias rectas paralelas al eje "y" o de ordenadas. Si cada una de esas rectas trazadas cortan a la curva en un único punto podemos estar seguros que la gráfica representa a una función, porque cumpliría con la definición más arriba mencionada, explícitamente, para cada valor de " " existe un único valor de " ".

Función implícita
Cuando una función está dada por una ecuación en donde no está despejada con respecto a la variable dependiente, se denomina implícita.

Ejemplo

editar
 

Las funciones son de gran utilidad para resolver problemas de la vida cotidiana, por citar unos ejemplos, pueden ser útiles en las siguientes áreas: economía, estadística, ingeniería, medicina, química, física, astronomía, geología, biología y en cualquier área donde se relacionen variables.


Las funciones juegan un papel esencial en el desarrollo del cálculo, las funciones son generalmente del tipo:

 

En otras palabras, "x" es una variable, "y" es otra variable, y el valor que tome "y" depende del valor que esté tomando "x". Por ejemplo, en la función "2x = y", pues cuando "x" tome el valor de 5, "y" va a tomar el valor de 10 (porque 2*5 es 10).

En donde a   se la llama variable dependiente y a   se la llama variable independiente, la anterior fórmula nos indica que y esta en función de x o sea x puede ser reemplazado en la función por cualquier número y el resultado de esta operacion se la asigna a y.
Así por ejemplo si nuestra función   es:

 

Y la cambiamos por   esto nos dice que reemplazemos x por 5 y tenemos como resultado:

  y por tanto:  

Tenemos que:

  entonces   y por tanto:  
  entonces  
  entonces  

Y así sucesivamente.

Dominio

editar
 

El dominio son los valores que puede tomar la variable independiente para que la variable dependiente sea un número real, Por ejemplo:

 

En esta función x puede tomar cualquier valor excepto el cero pues la división por cero no esta definida para los números reales.

Ilustración que muestra f, una función de dominio X a codominio Y. El óvalo pequeño dentro de Y es la imagen de f, a veces llamado rango de f.

En matemáticas, el dominio (conjunto de definición o conjunto de partida) de una función es el conjunto de existencia de ella misma, es decir, los valores para los cuales la función está definida. Es el conjunto de todos los objetos que puede transformar, se denota o bien . En se denomina dominio a un conjunto conexo, abierto y cuyo interior no sea vacío.

Clasificación

editar
 
 

Pero las funciones no acaban ahí, y se las puede clasificar en:

Función Polinómica
Función Constante
Función Lineal
Función Cuadrática
Función Racionales
Función Radicales
Funciones Circulares
Función Hipérbola
Función Elipse
Función Transcendentes
Funciones Trigonométricas
Función Seno
Función Coseno
Función Tangente
Función Cotangente
Función Secante
Función Cosecante
Funciones Exponenciales
Funciones Logarítmicas
Función Valor Absoluto
Función Parte Entera o Escalonada
Funciones de bolas

Por paridad:

Función par
Función impar

(solo ciertas funcione poseen paridad hay otras que no poseen ninguna paridad).


Límites

editar

Introducción

Ahora que hemos hecho una revisión de las funciones, llegamos a una idea central del cálculo, el concepto de límite.

Es preferible comenzar con una función f(x) = x2. Sabemos que f(2) = 4.Sin embargo seamos un poco más ingeniosos y creemos un "hueco" en x = 2. Podemos hacer esto variando la función sutilmente, así


 

Esta última función es igual a   en toda función la parte o las partes excepto por x=2 donde no existe. Ahora, un hecho curioso es que cuando x se acerca más a 2, entonces f(x) se acerca más a 4. Esto es un hecho útil y podemos expresarlo en símbolos como


 

Note que no importa qué es f(x) en x=2, en este caso la hemos dejado indefinida, pero podría ser 2 o 15 o 10000000. Esto no importa, la idea de límite es que usted puede hablar acerca de cómo se comporta una función cuando se hace más y más cercana a un valor, sin hablar de cómo se comporta en ese valor. Ahora usando variables podemos decir que L es el límite de una función f(x) cuando a x se aproxima a c si f(x) ≈ L cuando x ≈ c.

Decimos que el límite, cuando x se aproxima a c, de f(x) es L, si L existe como un número finito. Y lo expresamos algebraicamente como sigue

 

Intuitivamente, el límite L es simplemente el número al que f(x) se hace más y más cercana cuando x se aproxima a c, pero f(c) no necesita estar definido.

Esta idea de hablar acerca de una función cuando se aproxima a algo fue un descubrimiento importante, porque permite hablar de cosas de las que antes no se hubiera podido. Por ejemplo, consideremos una función 1/x. Cuando x se hace muy grande, 1/x se hace muy pequeña, más y más cercano a cero, cuanto más grande se haga x. Sin los límites es muy difícil hablar de este hecho, porque 1/x nunca llega realmente a ser cero. Pero el lenguaje de los límites existe precisamente para permitirnos hablar acerca del comportamiento de una función cuando ésta se aproxima a algo, sin preocuparnos acerca de que nunca llegará allí. Así que podemos decir


 

Aplicación al cálculo de la velocidad instantánea

editar

Para ver el poder del límite, vayamos atrás al ejemplo del auto en movimiento del que hablamos en la introducción. Suponga que tenemos un auto cuya posición es lineal con el tiempo. Queremos encontrar la velocidad. Esto es fácil de hacer desde el álgebra, simplemente tomamos la inclinación de la recta distancia contra tiempo para este auto y esta es nuestra velocidad.

Pero desafortunadamente (o tal vez afortunadamente si usted es un profesor de cálculo), las cosas en el mundo real no siempre viajan en agradables líneas rectas. Los carros aceleran, desaceleran, y generalmente se comportan en formas que hacen difícil calcular sus velocidades. (Figura 2).

Ahora lo que realmente queremos es encontrar la velocidad en un momento dado. (Figura 3). El problema es que para encontrar la velocidad necesitamos dos puntos, mientras que en cualquier tiempo dado, sólo tenemos un punto. Podemos, por supuesto, encontrar siempre la velocidad promedio del auto, dados dos puntos en el tiempo, pero queremos encontrar la velocidad del auto en un momento preciso.

Acá es donde el truco básico del cálculo diferencial entra. Elegimos un par de puntos en nuestra gráfica de posición contra tiempo, uno en donde queremos hallar la velocidad instantánea y otro en cualquier otro sitio y luego trazamos una línea entre ellos. Empezamos a acercar cada vez más y más este último punto al primero y a trazar sucesivas líneas, entre ellos. En la medida en que los puntos se hacen más cercanos, la pendiente de la línea se acerca a la velocidad instantánea.

Definición formal de límite

editar

La definición formal de límite ha tenido tradición de ser algo complicada para los estudiantes que la ven por primera vez. Vamos a presentarla primero y luego veremos detalladamente qué es lo que nos dicen en forma tan sucinta.

Decimos que el límite de f(x) cuando x tiende a c es igual a L o

 

si para todo ε > 0 existe un δ > 0, tal que, para todo x, si 0 < |x - c| < δ, entonces |f(x) - L| < ε

Miremos en principio las normas o valores absolutos de la anterior expresión. Sobre la recta real, un valor absoluto de un número es la diferencia entre este número (ya sea positivo o negativo) y el origen. -3 está a tres unidades de distancia de cero, por tanto |-3| = 3. De modo análogo, el valor absoluto de una resta corresponde a la distancia entre los dos números involucrados en ella. Démonos cuenta que ε y δ en la definición anterior nos delimitan la distancia tanto entre los valores de f(x) y L, como entre los de c y x.

Es decir, una vez escogida una distancia entre x y c menor que δ pero mayor que cero (pues c se acerca a x pero no lo alcanza), podemos garantizar que la distancia entre f(x) y L es menor a ε Independientemente del ε elegido.

Límites laterales

editar

Obsérvese que sobre la recta real estamos en condiciones de acercarnos a una valor particular de x bien sea por valores más grandes (a la derecha) o por valores más pequeños (a la izquierda). Debido a que existen funciones que no se comportan del mismo modo a la izquierda y a la derecha de un valor dado, el concepto de límite lateral puede ayudarnos a dilucidar este tipo de comportamiento. Consideremos por ejemplo la función parte entera de x o escalón unitario (usada frecuentemente para exponer la idea de límites laterales), denotada por E(x) y que se define de la siguiente forma

E(x) = [x], donde [x] es el mayor [[:m:w:es:N%FAmero_entero|número entero]] inferior o igual a x, tal que, E(x) ≤ x < E(x) + 1.
 
Función piso.

Su curva es una sucesión de segmentos horizontales a distintas alturas. Consideremos ahora un valor entero particular, por ejemplo 1. En la medida en que nos acercamos a 1 por la izquierda nos damos cuenta que los sucesivos valores de E(x) son iguales a cero, y en la medida en que nos acercamos a 1 por la derecha los valores son iguales a uno. La idea de acercarnos sucesivamente a un valor es la que introduce la noción de límite lateral. A continuación introduciremos las nociones formales de los límites laterales por izquierda y por derecha.

Límite por la derecha

editar

El límite por la derecha de f(x) cuando x tiende a a por la derecha es igual a L, si ∀ε>0, existe un δ > 0 tal que si 0 < x - a < δ, entonces |f(x) - L| < ε. Lo anterior se denota como:

 

Límite por la izquierda

editar

El límite por la izquierda de f(x) cuando x tiende a a por la izquierda es igual a L, si ∀ε>0, existe un δ > 0 tal que si 0 < a - x < δ, entonces |f(x) - L| < ε. Lo anterior se denota como:

 

TEOREMA Existe el límite si y solo si los dos límites laterales(por la derecha y por la izquierda) ambos existen y coinciden

Nota:aunque también es válido si consideramos que el límite vale +∞ o -∞ en lugar de 1.

Teoremas fundamentales sobre límites

editar

Sean f y g funciones con límites en c, n un número entero y k una constante. Se tiene entonces que:

  • El límite de una constante es la constante:
 
  •  
  • El límite de una constante por una función es igual a la constante por el límite de la función:
 
  • El límite de una suma es igual a la suma de los límites:
 
  • El límite de un producto es igual al producto de los límites:
 
  • El límite de un cociente es igual al cociente de los límites, siempre y cuando el denominador evaluado en el límite no sea cero.
 , siempre y cuando  
  • El límite de la potencia enésima de una función es igual a la potencia enésima del límite de la función:
 
  • El límite de un radical enésimo de una función es igual al radical enésimo del límite de la función:
 

Demostraciones

editar

Teorema de la suma de límites

editar

Debemos verificar que:

(1)  

Siendo:

 

Por lo tanto, según la definición de límite, tiene que haber un   para todo   tal que:

(2)  

Entonces, tomando en   y   sus límites para   tendiendo a  , tomamos un  , tal que:

 

y

 

Si ahora tomamos un   mínimo para   y  , es decir,  , entonces:

(3)  

y

(4)  

Por lo tanto, para todo   luego:

 

Usando desigualdad triangular:

 

Reemplazando por (3)

y (4)

 

Es decir:

 

Lo que demuestra (2)

, es decir, hay un   para todo   tal que:

 

Que según (1)

verifica que:

 

Es decir:

 

El límite de la suma de dos funciones es igual a la suma de sus límites.

Teorema del Sandwich (Teorema del Emparedado o Teorema del Encaje)

editar

El teorema de intercalación, más coloquialmente llamado teorema del emparedado, es útil cuando queremos hallar el límite de una función que se encuentra "confinada" por dos funciones que ya conocemos.

Si   y  , entonces  

Límites de funciones trigonométricas

editar

Demostración del límite de sen(x)/x cuando x tiende a 0

editar

Considerese que, un entorno reducido de 0,  

Si dividimos todos los miembros por   nos queda  

Pero   y  

Invirtiendo cada miembro nos queda esta expresión que es totalmente indeterminada  

Si hallamos el   de cada miembro, nos queda  

Y como ✓   y  , por Teorema del Encaje nos queda que  

                                                          • Antropología matemàtica¶

TEOREMA DEL ENCAGE¶  

Límites infinitos

editar

Considere simplemente los valores de 0,1,2,3,4,5 .... permitiendo de esta manera que crece o decrece pero sin dejar atrás la definición de límite entonces en conclusión se podría determinar que la función se acercaría al límite por un infinito de números pero nunca tocando el límite

Definición 1

Sea f una función que está definida en todo número de algún intervalo abierto (a,+∞). El límite de f(x) cuando x crece sin límite, es L lo que se escribe como:

 


Definición 2

Sea f una función que está definida en todo número de algún intervalo abierto(-∞,a). El limite de f(x) cuando x decrece sin límite, es L, lo que se escribe como


 


Teorema

Sea n cualquier entero positivo, entonces

 
 

Límites al infinito

editar

Se trata ahora de calcular cuál es el valor, en caso de que exista y sea finito, al que se acerca una sucesión según vamos avanzando términos. Usaremos un ejemplo muy ilustrativo para introducir esta. Considérese la siguiente sucesión:


 


Si escribimos algunos términos, nos haremos rápidamente una idea de hacia qué valor real se acercan los mismos:


 


Como podemos comprobar, los términos se van haciendo cada vez menores, por lo que es de esperar que, de existir realmente un último término de la sucesión, éste sería 0. Esto nos da una idea intuitiva de lo que significa el límite de una sucesión cuando tiende a infinito; ésto es, aventurar de algún modo a qué valor se acercan los términos de la sucesión según vamos avanzando sobre la misma.

Con la sucesión anterior, podemos escribir  , y de hecho, nos podemos tomar la siguiente licencia:  .

Dar una prueba para esta igualdad es algo complicado, pero podemos ilustrarlo con el siguiente ejemplo:


Supongamos que disponemos de una barra de pan y con ella debemos alimentar a toda la población de China. La pregunta es cuánto pan corresponde a cada persona.


Si tenemos en cuenta la cantidad de chinos que hay, habremos de realizar fracciones muy microscópicas de pan, porciones casi moleculares que en ningún caso supondrán alimento alguno, por lo que podemos decir que a cada chino le toca cero pan. La idea es que al dividir una cantidad por otra inmensamente mayor, el resultado es inmensamente diminuto; por lo que dividir una cantidad por infinito, que vendría a ser el mayor de todos los valores, nos da el menor de todos ellos, que es cero.


Es importante de cara al cálculo de límites al infinito tener en mente algunas igualdades que implican al infinito. Debemos, además, recordar siempre que infinito no es un número, sinó un concepto. Nos referimos a infinito como aquello que es inabarcable o inabastable, pero mediante un inofensivo abuso de lenguaje podemos valernos de él para efectuar operaciones:


 ,  


 ,  


 ,  


 


 


-Por completar-

Límites especiales

editar

Ejemplo 1.

Hallar el límite de   cuando x tiende a 3, usando el método de eliminación de irracionalidades.

Para x = 3 sale una indeterminación  

El primer radical lo convertimos en (x3+x2 -4-25)/(5·24)= A, y el segundo radical en (x2+x-4-23)/(3·22)= B

Restando las fracciones A y B resulta (3x3-7x2-10x+12)/240; factorizando se obtiene (x-3)(3x2+2x-4)/240; luego combinando con el denominador original (x-3) se tiene

(x-3)(3x2+2x-4)/240(x-3) simplificando , aparece (3x2+2x-4)/240, tomando límite cuando x tiende a 3 , sale
  [1]

Ejemplo 2.

Hallar el límite de  , cuando x tiende a infinito, sale una indeterminación infinito -infinito.Eliminando irracionalidades
(x5+3x4-8-x5)/5·x4 simplificando
(3x4-8)/5x4, cuyo límite cuando x tiende a infinito es
  [2]

Teorema de la eliminación de irracionalidades

editar
Caso 1. c finito

Si límite de   es L cuando x tiende a c, equivale a límite de(f(x)-Ln)/n·Ln-1, cuando c se aproxima a c. [3]. Esta equivalencia lógico-matemática permite operar solo con expresiones racionales.

Caso 2. El punto c es infinito

Sea el caso, calcular el límite de   - g(x), cuando x tiende a infinito; se admiten que f y g son funciones algebraicas o, en en le mejor de los casos, polinómicas, que además tienden a infinito. Resulta la indeterminación infinito - infinito.Se supone que dicho límite de la diferencia existe y es igual a  

En este caso, es lo mismo hallar el límite de [ ]/n(g(x))n-1 y se obtiene el límite  , que aún puede ser infinito [4]

Indeterminaciones

editar

Hay límites que evaluándolos directamente, se obtiene alguna de las siguientes expresiones:

 

A estas expresiones se les denomina indeterminaciones, ya que, a simple vista, no está claro cuál puede ser el límite (si es que existe). Por ejemplo, en la segunda de estas ecuaciones, el límite pudiese valer 0, 1 o infinito. En algunos casos, simplificando las expresiones u obteniendo expresiones equivalentes a las iniciales, mediante racionalización o factorización se puede resolver la indeterminación y calcular el límite. En otros casos, se requerirá el uso de otras herramientas más potentes como pueden ser las desigualdades o la regla de l'Hôpital.

Ejemplos

editar

Un ejemplo de indeterminación del tipo   es la que se da en estos tres casos, y en cada caso (tras simplificar), se obtiene un límite distinto :

 

 

 


Un ejemplo de indeterminación   que se resuelve aplicando el límite fundamental   es

 

límite que se resuelve si se multiplica y divide por k:

 

 


Supongamos otro caso que contenga indeterminaciones con funciones trigonométricas como:

 

En este caso, la indeterminación se "salva" mediante los siguientes artificios algebraicos:

 

 

En este caso:

  1. Se multiplicó y se dividió por el término  , operación válida puesto que una fracción con igual numerador y denominador es el elemento neutro en la multiplicación (uno);
  2. Se multiplicaron las dos fracciones, aplicando diferencia de cuadrados en el numerador;
  3. Se reemplazó según la identidad trigonométrica pitagórica  ;
  4. Se separó la potencia y luego
  5. se "extrajo" uno de los factores a otro límite, operación que es válida por propiedades del límite para la multiplicación;
  6. Se expresó convenientemente el límite que poseía la indeterminación y se evaluó  ;
  7. Se separó la indeterminación y
  8. se evaluó el límite. Se efectúa el cálculo aritmético y se obtiene cero.

Asíntotas

editar

Las asíntotas son rectas a las cuales una [[:m:w:es:Funci%F3n_matem%E1tica|función]] se aproxima indefinidamente, cuando x o f(x) tienden al infinito.


Usando la notación de límite para describir asíntotas

editar

Ahora considere la función

 

Cuál es el límite cuando x se aproxima a cero? El valor de   no existe puesto que

 

no está definido

Pero es intuitivamente claro que podemos hacer la función g tan grande como queramos, escogiendo un x suficientemente pequeño. Por ejemplo para hacer   igual a un millón, escogemos que x sea 10-6. En este caso decimos que podemos hacer g(x) arbitrariamente grande (tan grande como queramos) tomando un x que sea suficientemente cercano a cero, pero no igual y expresamos esto algebraicamente como sigue:

 

Note que hemos usado la notación de límite por derecha, ya que el límite, propiamente dicho no existe de hecho en x = 0 (dado que el límite por la derecha y por la izquierda son distintos).

De igual manera podemos considerar que en la medida en que x se hace más y más grande g(x) tiende a cero, pero nunca lo alcanza. Esto nos permite introducir la noción de asíntotas horizontales y verticales.

Asíntota Vertical

editar

Una asíntota vertical se da en x = c, para una función f(x) siempre que:

  1.  
  2.  

Vale la pena hacer énfasis en que en c el límite la función puede ser o bien infinito positivo o bien infinito negativo (cualquiera de ellos, pero no ambos), para que tengamos una asíntota vertical y que esto se puede cumplir cuando nos acercamos a c bien sea por la izquierda (primer caso) o bien por la derecha (segundo caso).

Asíntota Horizontal

editar

Una asíntota horizontal es la recta   y se tiene siempre que:

  1.  
  2.  

Continuidad de una función

editar

En un punto

editar

Ahora estamos listos para una definición formal de continuidad, que fue introducida en nuestra revisión de funciones. La definición es simple: f(x) es continua en c si y sólo si


Definición de Continuidad
 

Note que la función o el límite o ambos podrían no estar definidos en c, en cuyo caso la ecuación no sería cierta, y por tanto f no es continua en c.

Sean f y g funciones continuas en los reales. Los siguientes teoremas se cumplirán:


Teorema 1

  es continua en todos los reales.

Teorema 2

  es continua en todos los reales.

Teorema 3

  es continua en todos los reales.

Teorema 4

  es continua en los reales, mientras g sea diferente de 0.

Teorema 5

  que es la composición de funciones, es continua en los reales.

Ejemplo

Con  ,   tendremos que  ,   son continuas.

En intervalos abiertos y cerrados

editar

INTERVALO ABIERTO

Se dice que una función es continua en un intervalo abierto si y sólo si es continua en cada número del intervalo abierto

INTERVALO CERRADO

Se dice que una función, cuyo dominio contiene al intervalo cerrado [a.b], es continua en el intervalo cerrado [a,b] si y solo si es continua en el intervalo (a,b), así como continúa por la derecha en a y continua por la izquierda en b.

De funciones compuestas

editar

Discontinuidades

editar

Una discontinuidad es un punto donde una función no es continua. Por ejemplo, la función   se considera que tiene una discontinuidad removible en  .

¿Por qué la llamamos 'removible'? Porque, si modificamos la función ligeramente, podemos eliminar la discontinuidad y hacer la función continua. En particular, podemos dividir la función para obtener  , excepto en  . Si hacemos que f(x) sea 6 en ese punto, obtenemos la función continua:

 

Pero x + 3 = 6 para x = 3, y así podemos simplificar la función a g(x) = x + 3. (Esta no es la misma que la función original, en la cual hay un punto extra en (3,6)). Así el límite en x = 3 es 6. De hecho, esta clase de simplificación es siempre posible con una discontinuidad removible en una función racional. Cuando el denominador es cero, podemos redefinir la función para obtener una función que es igual a la anterior, salvo por los nuevos puntos, donde previamente teníamos una división por 0. Y arriba se probó que el límite de esta función (puesto que es continua) es igual al límite de la función antigua.

Aplicaciones para aislar raíces

editar

Encontrando límites

editar

Ahora nos concentraremos en encontrar los límites, en lugar de probarlos. En las pruebas anteriores, empezamos con el valor del límite. ¿Cómo encontramos ese límite para empezar nuestras pruebas?

Primero, si la función es continua en un punto particular c, el límite es simplemente el valor de la función en c, debido a la definición de continuidad. Todas las funciones polinómicas, trigonométricas, logarítmicas y exponenciales son continuas sobre sus dominios.

Si la función no es continua en c, entonces en muchos casos (como con las funciones racionales) la función es continua alrededor, pero es discontinua en un punto aislado. En este caso, queremos encontrar una función similar, excepto que el "agujero" que antes representaba la discontinuidad ahora está "relleno". El límite de esta función en c será el mismo, como puede ser visto de la definición de límite. La función es la misma que la anterior excepto en el punto c. La definición de límite depende de f(x) sólo en los puntos donde 0 < |x - c| < δ. Cuando x c, la desigualdad es falsa, y así el límite en c no depende del valor de la función en c. Por tanto, el límite es el mismo. Y puesto que nuestra nueva función es continua, ahora podemos sólo evaluar la función en c como antes.

Finalmente, note que nuestro límite podría no existir del todo. Hay muchas formas en que esto puede ocurrir:


"Hueco": Hay un hueco (de más de un punto de ancho) en la función donde ésta no está definida. Por ejemplo, en:

 

f (x) no tiene ningún límite cuando -4 ≤ x ≤ 4. No hay manera de "aproximarse" al medio del gráfico. Nótese que la función no tiene límites en los extremos de las dos curvas generadas (en x = -4 y x = 4). Para que exista un límite, el punto debe ser aproximable desde ambos derecha e izquierda. Nótese también que no existe límite en un punto completamente aislado de un gráfico.

"Salto": Se sigue de nuestra discusión previa que si el gráfico salta de repente a un nivel diferente (creando una discontinuidad), el límite no existe. Esto se ilustra con la función escalón unitario (en la cual el valor de la salida es el entero más grande no mayor al valor de entrada).


Asíntota: En

 

La gráfica se hace arbitrariamente alta cuando 'x' se aproxima a 0. El límite no existe.

Oscilación infinita: Las dos siguientes pueden ser un poco truculentas para visualizar. En ésta, nos referimos a una gráfica que continuamente alcanza puntos arriba y abajo de una línea horizontal. De hecho, hace esto infinitamente en la medida en que nos aproximamos a un cierto valor x. Esto significa a menudo que no hay límite, puesto que el gráfico nunca se establece en un valor particular. Sin embargo, si la altura (y profundidad) de cada oscilación disminuye cuando el gráfico se aproxima al valor x, de modo que las oscilaciones se hagan arbitrariamente pequeñas, entonces podría haber de hecho un límite.

El uso de la oscilación naturalmente trae a la mente las funciones trigonométricas. Un ejemplo simplemente definido de este tipo de límites no existentes es

 

En la función seno hay un número infinito de ciclos a medida que el gráfico continúa al infinito. sin(1/x) tomará cualquier valor (1,∞) y devolverá otro entre (0, 1). Aquí tenemos una oscilación infinita sobre un intervalo finito del gráfico.

Gráfica Incompleta: Vamos a considerar dos ejemplos. Primero, siendo f la función constante f(q)=2 definida por un número racional q. Luego, f es continua: sea racional  . Mostramos que f es continua con  . Sea  ; entonces si cogemos cualquier  , entonces siempre que q sea un número racional dentro de   de  , tenemos  . Así que f es continua en  .

Ahora Sea g la función de aspecto similar se define en toda la recta real. Dejamos g tomar el valor 2 para la entrada racional y 0 para la entrada de irracional. Ahora g es continua en ninguna parte! Sea, pues, x un número real, se muestra que g no es continua en x. Vamos a δ = 2; entonces, si g se continua en x, no habría un número tal que cada vez que ε y fue un número real a una distancia inferior a ε, tendríamos | g (x) - g (y) | < 1. Pero no importa lo pequeños que hacen ε podemos encontrar un número dentro de ε y de x tal que | g (x) - g (y) | = 2, porque si x es racional, sólo debes elegir y lo irracional y si x es irracional, pick x racional. Por lo tanto g no ser continua en todo número real!

Tenga en cuenta que estos dos ejemplos muestran lo importante que es conseguir que los dominios de las funciones de resolver. f y g tienen gráficos muy similares, pero sus propiedades de continuidad se oponen por completo.


Referencias y notas

editar
  1. Compulsando Límites de Xilef Aryen, ediciones Yachay de Sociedad Matemática Peruana (2013)
  2. Aryen: Ibídem
  3. Xilef Aryen: Compulsando límites
  4. Aryen: Op.cit

Enlaces

editar

Continuidad

editar

Definición formal

editar

Distintas situaciones de una función en un punto.

 

Continuidad en un punto

editar

Una función f(x) es continua en un punto   si verifica que:

 

Informalmente esta definición quiere decir que podemos hacer que la imagen de un punto sea todo lo cercana que queramos a   tan solo acercando el punto x a  

Continuidad en un intervalo

editar

Como resulta intuitivo, una función es continua en un intervalo si lo es en cada uno de sus puntos.

f(x) es continua en [a,b]   f(x) es continua.

Propiedades

editar

Sean f(x) y g(x) funciones continuas. Se verifica:

  • af(x) es continua  
  • f(x)+g(x) es continua
  • f(x)g(x) es continua
  • f(g(x)) es continua

Cálculo diferencial

editar
En matemáticas, la derivada de una función es uno de los dos conceptos centrales del cálculo. La inversa de una derivada se llama antiderivada, o integral indefinida.

La derivada de una función en un cierto punto es una medida de la tasa en la cual una función cambia conforme un argumento se modifica. Esto es, una derivada involucra, en términos matemáticos, una tasa de cambio. Una derivada es el cálculo de las pendientes instantáneas de f(x) en cada punto x. Esto se corresponde a las pendientes de las tangentes de la gráfica de dicha función en el punto dado; las pendientes de dichas tangentes pueden ser aproximadas por una secante. Las derivadas también pueden ser utilizadas para calcular la concavidad.

Las funciones no tienen derivadas en los puntos en donde hay una tangente vertical o una discontinuidad.

Diferenciación y diferenciabilidad

editar

La Diferenciación puede ser usada para determinar el cambio que se produce como resultado de otro cambio, si está determinada una relación matemática entre dos objetos. La derivada de f(x) se puede escribir de varias formas: f ′(x) (se pronuncia f prima de x), d/dx[f(x)] (se pronuncia d en d x de f de x), df/dx (se pronuncia d f en d x), o Dxf (se pronuncia d sub x de f). Los últimos tres simbolismos son útiles cuando se considera a la diferenciación como una operación entre funciones. En ese contexto, los símbolos d/dx y Dx se llaman operadores diferenciales.

Una función es diferenciable en un punto x si su derivada existe en ese punto; una función es diferenciable en un intervalo si lo es en cada punto x perteneciente al intervalo. Si una función no es contínua en c, entonces no puede ser diferenciable en c; sin embargo, aunque una función sea contínua en c, puede no ser diferenciable.

La derivada de una función diferenciable puede a su vez ser diferenciable, hablándose entonces de segunda derivada de la función diferenciable como la derivada de la derivada de ésta. Análogamente, la derivada de la segunda derivada recibe el nombre de tercera derivada, y así sucesivamente.

Notaciones para la diferenciación

editar

La notación más simple para la diferenciación que se utiliza en la actualidad se debe a Lagrange y utiliza la prima, ′. Para tomar las derivadas de f(x) en el punto a, se escribe:

  para la primera derivada,
  para la segunda derivada,
  para la tercera derivada, y luego,
  para la n-ésima derivada (n > 3).

Para la función cuyo valor en cada x es la derivada de f(x), se escribe f′(x). De forma similar, para la segunda derivada de f se escribe f ″(x), y así sucesivamente.

La otra notación común para la diferenciación se debe a Leibniz. Para la función cuyo valor en x es la derivada de f en x, se escribe:

 

Se puede escribir la derivada de f en el punto a de dos formas distintas:


 

Si la resultante de f(x) es otra variable, por ejemplo, si y=f(x), se puede escribir la derivada como:

 

Las derivadas de orden superior se expresan así

  o  

para la n-ésima derivada de f(x) o y respectivamente. Históricamente, ésto proviene de el hecho de que, por ejemplo, la tercera derivada es:

 

que se puede escribir sin mucho rigor como:

 

Eliminando las llaves nos da la notación que está arriba.

La notación de Leibniz es tan versátil que permite especificar la variable que se utilizará para la diferenciación (en el denominador). Esto es específicamente relevante para la diferenciación parcial. Y también hace más fácil de recordar la regla de la cadena, debido a que los términos "d" se cancelan simbólicamente:

 .

Sin embargo, es importante recordar que los términos "d" no se pueden cancelar literalmente, debido a que son un operador diferencial. Sólo se utilizan cuando se usan en conjunto para expresar una derivada.

La notación de Newton para la diferenciación consiste en poner un punto sobre el nombre de la función:

 
 

y así sucesivamente.

La notación de Newton se utiliza principalmente en la mecánica, normalmente para las derivadas con respecto al tiempo tales como la velocidad y la aceleración y en la teoría ODE. Normalmente sólo se utilizan para la primera y segunda derivadas.

Definición. Cociente diferencial de Newton

editar
 

Las derivadas se defineno el límite de la pendiente de las rectas secantes conforme se van aproximando a la recta tangente.

Es difícil hallar directamente la pendiente de la recta tangente de una función porque sólo conocemos un punto de ésta, el punto donde ha de ser tangente a la función. Por ello, aproximaremos la recta tangente por rectas secantes. Cuando tomemos el límite de las pendientes de las secantes próximas, obtendremos la pendiente de la recta tangente.

Para obtener estas pendientes, tomemos un número arbitrariamente pequeño que llamaremos h. h representa una pequeña variación en x, y puede ser tanto positivo como negativo. La pendiente de la recta entre los puntos (x,f(x)) y (x+h,f(x+h)) es

 

Esta expresión es un cociente diferencial de Newton. La derivada de f en x es el límite del valor del cociente diferencial conforme las líneas secantes se acercan más a la tangente:

 

Si la derivada de f existe en cada punto x, podemos definir la derivada de f como la función cuyo valor en el punto x es la derivada de f en x.

Puesto que la inmediata sustitución de h por 0 da como resultado una división por cero, calcular la derivada directamente puede ser poco intuitivo. Una técnica es simplificar el numerador de modo que la h del denominador pueda ser cancelada. Esto resulta muy sencillo con funciones polinómicas, pero para la mayoría de las funciones resulta demasiado complicado. Afortunadmente, hay reglas generales que facilitan la diferenciación de la mayoría de las funciones descritas; ver abajo.

Algunos ejemplos de cómo utilizar este cociente:

Ejemplo 1

editar

Consideremos  

 

La derivada de una constante vale cero.

Ejemplo 2

editar

Consideremos la gráfica de  . Esta recta tiene una pendiente igual a 2 en cada punto. Utilizando el cociente mostrado arriba (junto a los conceptos de límite, secante, y tangente) podremos determinar las pendientes en (4,5):

 
 

La derivada y la pendiente son equivalentes.

Ejemplo 3

editar

Mediante diferenciación, se puede calcular la pendiente de una curva. Consideremos  :

 
 

Para cualquier punto x, la pendiente de la función   es  .

Ejemplo 4

editar

Consideremos  

 
 
 

Derivadas notables

editar

Física

editar

Es posible que la aplicación más importante del cálculo en la física sea el concepto de "derivada temporal" -- la tasa de cambio en el tiempo -- que se requiere para la definición precisa de varios importantes conceptos. En particular, las derivadas con respecto al tiempo de la posición de un objeto son significativas en la física Newtoniana:

  • La velocidad (velocidad instantánea; el concepto de la velocidad promedio que prevalece en el cálculo) es la derivada, con respecto al tiempo, de la posición de un objeto.
  • La aceleración es la derivada, con respecto al tiempo, de la velocidad de un objeto.
  • El tirón es la derivada, con respecto al tiempo, de la aceleración de un objeto.

Por ejemplo, si la posición de un objeto está determinada por la ecuación  , entonces la velocidad del objeto es  ; la aceleración del objeto es  ; y el tirón del objeto es  .

Si la velocidad de un auto está dada como una función del tiempo, entonces la derivada de dicha función con respecto al tiempo, describe la aceleración del auto como una función del tiempo.

Uso de las derivadas para graficar funciones

editar

Las derivadas son una útil herramienta para examinar las gráficas de funciones. En particular, los puntos en el interior de un dominio de una función de valores reales que llevan a dicha función a un extremo local tendrán una primera derivada de cero. Sin embargo, no todos los puntos críticos son extermos locales. Por ejemplo, f(x)=x3 tiene un punto crítico en x=0, pero en ese punto no hay un máximo ni un mínimo. La prueba de la primera derivada y la prueba de la segunda derivada permiten determinar si los puntos críticos son máximos, mínimos o ninguno.

En el caso de dominios multidimensionales, la función tendrá una derivada parcial de cero con respecto a cada dimensión en un extremo local. En este caso, la prueba de la segunda derivada se puede seguir utilizando para caracterizar a los puntos críticos, considerando el eigenvalor de la matriz Hessiana de las segundas derivadas parciales de la función en el punto crítico. Si todos los eigenvalores son positivos, entonces el punto es un mínimo local; si todos son negativos es un máximo local. Si hay algunos eigenvalores positivos y algunos negativos, entonces el punto crítico es un punto silla, y si no se cumple ninguno de estos casos, la prueba es no concluyente (e.g., los engeivalores son 0 y 3).

Una vez que se encuentran los extremos locales, es mucho más fácil hacerse de una burda idea de la gráfica general de la función, ya que (en el caso del dominio mono dimensional) se incrementará o decrementará uniformemente excepto en los puntos críticos, y por ello (suponiendo su continuidad tendrá valores intermedios entre los valores en los puntos críticos de cada lado.

Aproximación local de Taylor

editar

Hemos visto que podemos aproximar mediante su recta tangente a una función derivable localmente en un punto. Si se cumple que la función es suficientemente suave en el punto o dominio de estudio (esto es, la función es de clase  ) cabe la posibilidad de intentar aproximar a la función no por polinomios de grado uno, sino por polinomios de grado dos, tres, cuatro y sucesivamente. Esta aproximación recibe el nombre de "desarrollo polinómico de Taylor" y se define de la siguiente manera:

 

Donde P(x) es el polinomio de grado n que mejor aproxima a la función en el punto x=a. Nótese que si evaluamos P(x) en x=a todos los términos salvo el f(a) se anulan, luego P(a) = f(a). Nótese también que la ecuación de la recta tangente del apartado anterior corresponde al caso en el que n=1.

El polinomio de Taylor es un polinomio "osculador". De entre todos los polinomios de orden no mayor que n y que pasan por f(a) el desarrollo polinómico de Taylor de f(x) en x=a es el que posee el contacto de mayor orden con f(x)en a. Se basa en la idea de que si dos funciones comparten en x=a el mismo valor, la misma primera derivada, la misma segunda derivada etc, la misma i-ésima derivada, (lo que brevemente se expresa diciendo que las dos funciones tienen un contacto de orden i) entonces dichas funciones serán muy parecidas cerca de x=a, queriendo decir por parecidas que podemos aproximar a una de las dos por la otra cometiendo un error despreciable.

Cuando a=0 el desarrollo se denomina desarrollo de MacLaurin. En la práctica la mayoría de las veces se emplean desarrollos de MacLaurin. Ejemplos de desarrollos importantes de MacLaurin son:

 
 
 

Nótese el símbolo   que denota aproximación que no igualdad. Si la función a aproximar es infinitamente derivable y agregamos infinitos términos al desarrollo entonces el   se convierte en un  .

Este último paso de agregar infinitos términos no se puede tomar a la ligera. Hemos dicho que la aproximación de grado uno, dos, tres etc es una aproximación local en el punto en que se evalúa la función, esto es, si nos alejamos mucho del punto la aproximación dejará de ser precisa. Cuantos más términos agreguemos al desarrollo en serie de Taylor tanto más precisa será nuestra aproximación si estamos en un entorno del punto. Podríamos pensar pues que al añadir infinitos términos podemos evaluar la función aproximada en cualquier punto de su dominio de definición con precisión absoluta. Esto no siempre es cierto, pues dependerá del carácter de la serie de Taylor en el punto en que la evaluamos.

El estudio del carácter de una serie es un problema frecuentemente complejo. Se trata de definir los valores para los cuales la serie es convergente, esto es, determinar el radio de convergencia de la misma. Dentro del intervalo de convergencia de la serie sí que podemos tomar infinitos términos y admitir que la serie nos da el valor "exacto" de la función en el punto. Sin embargo, fuera del intervalo de convergencia la serie no proporcionará el valor exacto de la función aunque agreguemos infinitos términos.

Los desarrollos en serie de Taylor presentan grandes ventajas a la hora de operar funciones cuyas ecuaciones involucran expresiones complicadas tales como funciones trascendentes (senos, logaritmos, etc). Sin embargo también presentan ciertos inconvenientes. Un inconveniente importante es que el número de términos necesarios para aproximar con precisión razonable a la función en un punto alejado del evaluado (pero siempre dentro del intervalo de convergencia de la serie) se dispara al infinito. Otro inconveniente es que la expresión polinómica de la función puede hacer difícil detectar sus propiedades elementales, por ejemplo, no es obvio deducir del desarrollo del seno que se trata de una función periódica.

Conociendo el desarrollo en serie de una función f(x) en x=a es inmediato obtener sus derivadas sucesivas   etc . Según se desprende de la definición, sin más que multiplicar el i-ésimo coeficiente (correspondiente al término de grado i) por   obtenemos la derivada i-ésima en el punto a de la función. Asimismo calcular una integral definida sobre un intervalo perteneciente a un entorno del punto a es también inmediato, pues la función primitiva se obtiene fácilmente integrando cada término del desarrollo. Si bien cabe señalar que dicha integral no será exacta, sino aproximada, y será tanto más precisa cuanto más pequeño sea el intervalo de integración y cuanto más centrado esté dicho intervalo en el punto x=a.

Los desarrollos en serie son una potente herramienta en el cálculo de límites. Un límite aparentemente complejo puede convertirse en trivial sin más que sustituir cada función por su desarrollo en serie y realizar las operaciones correspondientes de simplificación.

Puntos críticos

editar

Reciben el nombre de puntos críticos aquellos puntos de una función en los que la derivada tiene valor nulo; también pueden recibir el nombre de puntos estacionarios.

Si la segunda derivada es positiva en un punto crítico, se dice que el punto es un mínimo local; si es negativa, se dice que el punto es un máximo local; si vale cero, puede ser un punto de inflexión. Derivar y resolver en los puntos críticos es a menudo una forma simple de encontrar máximos y mínimos locales, que pueden ser empleados en optimización.

Más información

editar

Cuando una función depende de más de una variable, se utiliza el concepto de derivada parcial. Las derivadas parciales se pueden pensar informalmente como tomar la derivada de una función con respecto a todas, excepto una variable que se mantiene constante cerca de un punto. Las derivadas parciales se representan como ∂/∂x (en donde ∂ es una 'd' redondeada conocida como 'símbolo de la derivada parcial').

El concepto de derivada puede ser extendido de forma más general. El hilo común es que la derivada en un punto sirve como una aproximación lineal a la función en dicho punto. Quizá la situación más natural es que las funciones sean difrenciables en las variedades. La derivada en un cierto punto entonces se convierte en una transformación lineal entre los correspondientes espacios tangenciales y la derivada de la función se convierte en un mapeo entre los grupos tangenciales.

Para diferenciar todas las funciones continuas y mucho más, se puede definir el concepto de distribución.

Para las funciones complejas de una variable compleja, la diferenciabilidad es una condición mucho más fuerte que la simple parte real e imaginaria de la función diferenciada con respecto a la parte real e imaginaria del argumento. Por ejemplo, la función f(x+iy)=x+2iy satisface lo segundo, pero no lo primero. Vea también Función holomórfica.

Vea también: diferintegral.

Referencias

editar

Enlaces externos

editar

Cálculo integral

editar

Técnicas de integración: