Diferencia entre revisiones de «Introducción a Señales, Sistemas y Control»

m
Bot: Corrigiendo sintaxis wiki; cambios triviales
m (Bot: Corrigiendo sintaxis wiki; cambios triviales)
{{Estructurar en subpáginas}}
[[Categoría:Electricidad y Electrónica]]
{{Fusionar|Sistemas_de_Control}}
<!--VERSIÓN DE PRELIMINAR DE PRUEBA.-->
* Por definición el área de esta función es igual a uno
 
[[ImagenArchivo:delta.png|framed|center|Función Delta]]
 
La función impulso posee algunas propiedades que pueden resultar útiles.
</math>
 
el tipo de escalón unitario corresponde a una salida.
El valor de la función en t=0, es indefinido. Otros textos lo pueden definir como 1 o 0.
Así pues ésta nos representa la corriente continua disipada en nuestro dispositivo.
 
 
[[ImagenArchivo:heaviside.png|framed|center|Función Escalón Unitario o Heaviside]]
 
En el caso de la función escalón, fisicamente representa un cambio instantáneo que se produce a t=0, es una suposición el hecho de representar una función con tiempos negativos (lo cual no existe), en cambio sirve para representar el caso de un interruptor que permanece abierto hasta que en un instante se cierra, estableciendo el máximo voltaje a una carga.
</math>
 
[[ImagenArchivo:rampa.png]]
 
=== Relación existente entre estas señales ===
Si deseamos ejemplos de la naturaleza tenemos la corriente, el voltaje, el sonido, la luz, etc.
 
=== Señales Discretas ===
 
Una señal discreta es una señal discontinua que está definida para todos los puntos de un intervalo determinado del conjunto de los números enteros. Su importancia en la tecnología es que, los computadores y microchips que son utilizados en este nuevo mundo "Digital" en el que vivimos, sólo manejan señales discretas. Una señal discreta en la naturaleza podría ser el pulso cardíaco, el rebotar de una pelota al caer libremente, etc.
 
Si para todos los valores de una variable existe un valor, estamos hablando de una señal continua.
 
=== Parte Par e Impar de una señal ===
Cualquier señal se puede poner como la suma de una señal par y una señal impar.
;Par
: Una función par es una función en donde <math> x(t) = x(-t)\,\!</math>. Es decir, esta función presenta una simetría en torno al eje <math>y</math>.
;Impar
: Una función impar es una función en donde <math> x(t) = -x(-t) \,\!</math>. Es decir, esta función presenta una simetría respecto al origen del sistema de coordenadas. (Espejo a través de la recta <math>y=-x\,\!</math>)
;Periódica
:Una función periódica es aquella que muestra una repetición constante, y no evoluciona con el tiempo <math>T\,\!</math> cumpliéndose que <math> x(t+T)=x(t) \,\!</math>. Por ejemplo, una onda cuadrada o sinusoidal son ondas periódicas, en tanto que la función <math>x(t)=t\,\!</math> no es periódica.
 
=== Transformaciones de Señales Continuas Simples ===
Una inversión de signo voltea la señal a lo largo del eje de amplitud. Asi, "los últimos serán los primeros y los primeros serán los últimos." Las tres funciones básicas se modifican como sigue:
 
* La función impulso <math>\delta(t)\,\!</math> queda igual
* La función escalón <math>u(t)\,\!</math> se transforma en <math>u(-t)\,\!</math>
* La función rampa <math>r(t)\,\!</math> se transforma en <math>r(-t)\,\!</math>
 
=== Causalidad, Anti-causalidad, No-causalidad ===
: Una señal se denomina anti-causal cuando no depende de sus valores en el pasado. Ej: <math>y(t)= 6x(t)</math>
;No-causal:
: Una señal se denomina no-causal cuando sus valores dependen de una señal futura. Ej: <math>
y(t)=x(-t)
</math>
 
== Sistemas Lineales Invariantes en el Tiempo (LTI) ==
Se dice que un sistema lineal es invariante en el tiempo si un desplazamiento en el tiempo de la entrada resulta en un desplazamiento idéntico de la salida sin que cambie la forma de onda o perfil de la señal. Esto se puede enunciar en la forma siguiente:
 
La respuesta de un LIT es entonces el producto de convolución de la excitación con la respuesta impulsional del sistema.DISCRETOS
 
: ''en el caso de las señales peridodicas se pueden tratar como LIT siempre que el despalzamiento coincida con su periodo.
''
 
\int x(\tau) h(t - \tau) d\tau
</math>
los limites de la integral dependen de la posición de las distintas señales respecto al tiempo.
En los siguientes casos a la resolucion que se llega es que cuando las señales nos dan algún valor positivo
no se avanzarán o las señales se quedaran truncas y no procede este problema.
 
[[http://es.wikipedia.org/wiki/Archivo:Convolucion_Funcion_Pi.gif |Grafica convolución].
 
y(t) es la salida.
\int_{-\infty}^{\infty} u(\tau)h(t-\tau) d \tau
</math>
Y la respuesta de un sistema lineal estacionario a una entrada arbitraria se obtiene como la convolucion entre la entrada y la respuesta al impulso.
 
;'''Si el sistema es no-causal'''
 
== Series y Transformadas de Fourier ==
=== Series de Fourier ===
Muchas aplicaciones de ingeniería involucran el procesamiento de señales aleatorias.
Algunos ejemplos de estas aplicaciones son: predicción, donde obtenemos futuros valores
11 las derivadas de las señales sinousidales dependen del número de frecuencia de forma analogica segun la señal si es discreta y continua, que básicamente una señal discreta también cuenta con una señal continua.
 
== Transformada de Laplace ==
La transformada de Laplace es una transformación matemática. Nos ayuda a resolver sistemas complejos mediante la transformación de dichos sistemas en ecuaciones algebraicas sencillas. Por ejemplo, en vez de usar ecuaciones diferenciales, mediante la transformada de Laplace, convertimos dichas ecuaciones en polinomios, que son de menor dificultad resolutiva.
 
[http://www.cib.espol.edu.ec/bivir/abrelibropdf.asp?tco=understanding_digital_signal_procesing Procesamiento Digital de senales]-Richard G. Lyons
 
[[Categoría:Electricidad y Electrónica]]
 
[[Categoría:Wikilibros:Nombrado incorrectamente]]
2035

ediciones