Motricidad.European Journal of Human Movement, 1998: 4, 7-25

ESTADO ACTUAL DE CONOCIMIENTOS DE LAS TÉCNICAS
DE TRATAMIENTO DE LOS DATOS POSICIÓN - TIEMPO EN
EL CAMPO DE LA BIOMECÁNICA DEL APARATO
LOCOMOTOR

 

Gianikellis, K.; * Gutiérrez Dávila, M.**
* Facultad de Ciencias del Deporte. Universidad de Extremadura.
** Facultad de Ciencias de la Actividad Física y del Deporte. Universidad de
Granada

 


 

RESUMEN

El objetivo de este estudio es presentar, en líneas generales, el estado actual de conocimientos respecto a las técnicas de tratamiento de los datos posición -tiempo que se utilizan en la investigación en el campo de la Biomecánica para describir, analizar y evaluar el movimiento humano. La evolución de estas técnicas ha permitido disponer de información cada vez más fiable respecto a la cinemática de los marcadores anátomicos de interés de cuya calidad dependen mucho las inferencias posteriores que se hacen respecto a la eficacia de los patrones motores que se estudian. Una de las principales aportaciones de este trabajo es establecer criterios que permiten seleccionar objetivamente entre las diferentes técnicas de "ajuste" de los datos posición - tiempo para mejorar la relación "señal - ruido" y calcular su primera y la segunda derivada con mayor precisión.
PALABRAS CLAVE: Tratamiento de señales, funciones spline, filtrado digital, análisis Fourier, análisis cinemático.

 

ABSTRACT

Measurements made using an image - based motion analysis system are contaminated with noise generated during the recording and digitizing procedures. So the sampled signal can be considered as the sum of a quantity of true information associated to the physical phenomenon that is taking place and a quantity of information, that is nothing to do with this, representing the systematic and random noise induced by lens distortion, erroneous marker placement, calibration errors, skin and marker movements, digitizing errors, digitizer resolution, etc. Due to the nature of numerical differentiation, unless the random noise is reduced it may be amplified to such an order that the estimated derivative values may contain more error than signal. The main purpose of this study is the introduction of the reader to the most important techniques to treat de position -time data in order to reduce the noise and differentiate the displacement data. Besides, objective criteria are defined to select the most efficient fit data technique in Biomechanics.
KEY WORDS: data processing, curve fitting, Splines, digital filtering, Fourier Series, Kinematics

 


 

INTRODUCCIÓN

Durante todo proceso de medida de un fenómeno físico, se utilizan transductores que proporcionan señales que al ser tratadas adecuadamente permiten extraer información respecto al mismo. El tratamiento o procesado digital de estas señales consiste en obtener información a partir de sus valores muestreados transformando así las señales continuas en secuencias de valores discretos. Este proceso puede conducir a una pérdida de información y/o a errores respecto del tratamiento posterior de la señal muestreada. Por tanto, surge la necesidad de “ajustar” los valores discretos a curvas que representan con suficiente precisión el fenómeno físico bajo estudio minimizando los errores contenidos en la medida.

En el campo de la Biomecánica del movimiento humano es muy frecuente obtener, a partir de las coordenadas tridimensionales de los puntos objeto que definen el sujeto en estudio, las velocidades y aceleraciones, lineales y angulares, de los segmentos corporales, recurriendo a técnicas de fotogrametría cine o vídeo u otras técnicas indirectas de análisis cinemático. Así surge la necesidad de evaluar la primera y segunda derivada temporal de las funciones posición -tiempo utilizando técnicas de “ajuste” de los datos al saber que las medidas respecto a las coordenadas espaciales de los marcadores anatómicos contienen errores sistemáticos y aleatorios que se reconocen como "ruido blanco".

Por otro lado el cálculo de las derivadas temporales de los datos posición tiempo lleva implícito el problema de la amplificación del ruido (“ill -posed problem”) en las mismas, de modo que si la señal temporal registrada x(t) representa una suma n darmónicos senoidales, o sea,

x(t) = åAi *sen(wi +j ) ,  
i =0    

los que corresponden a i=0 los errores aleatorios son de amplitud muy pequeña y de frecuencia alta. Por tanto, aunque la amplitud de cada uno de los armónicos de x(t) (señal más ruido) se define por {Ai}, la amplitud de cada uno de los armónicos de la señal temporal que corresponde a la primera y la segunda derivada x'(t) y x''(t) serán {wi * Ai} y {wi² * Ai} respectivamente. Así pues, cuanto mayor es el contenido en frecuencia de la señal x(t), más se amplificarán, en los espectros de las magnitudes derivadas, los armónicos que corresponden a los errores de la medida (amplificación del ruido) y si no se mejora la relación “señal/ ruido”, las derivadas pueden contener más error que señal (Fig. 1).

Desde hace tres décadas, los científicos que trabajan en el campo de la Biomecánica han concentrado su atención en el problema de la reducción del "ruido" y la mejora de la relación “señal/ruido” que pasa por :

Figura 1. Ejemplo de espectro de una señal temporal “contaminada” con "ruido" (línea continua) y sus primera (----) segunda (…..) y tercera derivada (_._._.). (Adaptado de Woltring, 1993).

Seleccionar adecuadamente la frecuencia de muestreo (f) que tiene que ser suficientemente elevada para asegurarse de que la señal registrada tiene componentes en frecuencia fuera del ancho de banda que define la frecuencia de Nyquist y poder ser reconstruida con precisión a partir de sus valores discretos. El teorema de muestreo establece que, “una señal temporal registrada, limitada en banda, puede ser reconstruida a partir de sus valores discretos si la frecuencia de muestreo ha sido al menos dos veces superior a la frecuencia más alta contenida en el espectro de la señal”, es decir Dt £ 1/2fmax o 1/Dt ³ 2fmax donde fN = 1/2Dt es la frecuencia de Nyquist. Se ha establecido la siguiente relación entre la mínima varianza (s2k min) de la derivada (k), la frecuencia limite superior del espectro de la señal registrada (w), la varianza (error) de los datos de posición (s2 ) que están “contaminados” con “ruido blanco” y la frecuencia de muestreo (1/T):

Como se observa, el “ruido” introducido en los valores de la velocidad y de la aceleración se amplifica y, para contrarrestar esta amplificación del "ruido" en las magnitudes derivadas, las señales temporales que corresponden a posiciones de los marcadores se tienen que muestrear a una frecuencia superior de la establecida por el teorema de muestreo.

La definición de la resolución espacio -temporal (Q) que expresa la relación entre la raíz cuadrada de la frecuencia de muestreo (f) y la precisión (P) del sistema de fotogrametría que se utiliza. Este parámetro se ha establecido porque, como se puede observar, la ecuación anterior contiene un término de resolución espacio -temporal (2fs*T) que depende del sistema de medida y otro término (ωs2k+1/π(2k+1)) que depende del patrón de movimiento registrado. Es decir:

Como se puede apreciar para obtener altos valores para la resolución espacio temporal (Q), la reducción de los errores aleatorios del sistema (mayor precisión) es más eficaz que el incremento de la frecuencia de muestreo.

La selección de la técnica de “ajuste” de los datos posición tiempo o sea de la señal original registrada, bien ajustando los datos registrados a una función determinada, o bien “filtrando” los valores discretos, que exige el conocimiento previo de las características de estas técnicas que se presentan a continuación.

1. Técnicas de “ajuste” de las coordenadas y cálculo de las derivadas temporales.

Una vez reconstruidas las coordenadas espaciales de los marcadores se utilizan técnicas de “ajuste de los datos” que permiten:

. Mejorar la relación señal - ruido “suavizando” los datos posición - tiempo registrados y eliminando parte de los errores aleatorios introducidos en las medidas durante el proceso de la digitalización que afectan de manera importante a la precisión de las magnitudes derivadas

. Encontrar la expresión analítica de las funciones posición -tiempo facilitando el cálculo de magnitudes derivadas respecto al tiempo

. Conocer las coordenadas de todos los marcadores en el mismo instante del tiempo (interpolación)

A continuación se presentan detalladamente las bases teóricas, las ventajas e inconvenientes de las técnicas de tratamiento de los datos posición - tiempo que se han utilizado hasta ahora así como los criterios de selección de una determinada técnica de “ajuste” en el campo de la biomecánica.

1.1. Técnicas basadas en diferencias finitas de primer y segundo orden (Pezzack et al., 1977).

Aunque hoy en día no se utilizan las técnicas basadas en diferencias finitas han servido para calcular la velocidad de los marcadores anatómicos. Se conoce que la derivada f'(t) de una función y = f(t) en un punto (ti) se define como: y expresa la pendiente de la tangente a la curva de la función en el punto (f(ti),ti) y para intervalos de tiempo finitos donde (dy/dt) se conoce como primer cociente incremental finito o bien diferencia finita de primer orden. La relación que existe entre la primera derivada y la diferencia finita de primer orden de una función viene dada por el teorema de la media, de modo que,

Con el fin de permitir aproximaciones análogas para derivadas de orden superior, el concepto de diferencias finitas se amplía a la diferencia finita de segundo orden.

1.2. Técnicas basadas en elajuste de los datos posición - tiempo a polinomios por el método de mínimos cuadrados y seguidamente derivar los polinomios (Gregor and Kirkendall, 1978).

Este método trata de encontrar un polinomio de “ajuste” que se aproxime a los datos registrados lo máximo posible. De todos los criterios que se pueden elegir para verificar la condición anterior, el más común es la aplicación del principio de los mínimos cuadrados. Este principio encaja los (n) valores dados a un polinomio (Pm) de grado (m), de forma que se cumpla que la suma de los cuadrados de las diferencias entre f(ti) y Pm(ti) sea mínima. Si definimos la diferencia en el punto (ti) como {Di = f(ti) -Pm(ti)}, el principio de mínimos cuadrados establece que los coeficientes {Aj} (j = 0,1,..,m) que se han de elegir han de cumplir que sea mínimo el cuadrado del error n acumulado De modo que, se puede encontrar un polinomio de grado (1 -7) que representa analíticamente la curva que mejor se ajusta a los datos. Los coeficientes {Aj} (j = 0,1,..,m) del polinomio de ajuste de grado (m) se obtienen al resolver un sistema de ecuaciones lineales de orden (m+1) que procede de igualar a cero las derivadas parciales del error cuadrático acumulado (S) (dado que debe ser mínimo) respecto a los coeficientes {Aj}, o sea, dS/Aj=0.

Una vez obtenida la expresión del polinomio de ajuste, sus derivadas temporales se calculan por diferenciación analítica.

Cuando los valores f(ti) no tienen el mismo orden de precisión, el método de mínimos cuadrados se modifica ligeramente, de forma que cada error cuadrático en todos los (ti) se divide por un factor de peso {wi} antes de calcular el error acumulado, es decir, de modo que, el peso {1/wi²} puede considerarse como una medida del grado de precisión o importancia relativa de cada valor f(ti) en la determinación de los coeficientes del polinomio de mínimos cuadrados Pm(ti).

El cálculo de los coeficientes del polinomio de ajuste se simplifica notablemente cuando éste es combinación lineal de un conjunto de polinomios ortogonales por lo tanto los polinomios ortogonales presentan algunas ventajas sobre el conjunto de los polinomios cuando se pretende aproximar una función por el método de mínimos cuadrados.

1.3. Técnicas basadas en el ajuste de los datos a funciones "spline" (Wood and Jennings, 1979).

Con estas técnicas, el ajuste de los datos se hace a "trozos" en lugar de utilizar

un solo polinomio, de modo que, varios polinomios de grado pequeño (hasta siete) son empalmados entre sí de forma continua. La función resultante no presenta las oscilaciones que presentan los polinomios de interpolación de alto grado y la curva de ajuste tiene una suavidad que es coherente al tratarse de patrones cinemáticos de los movimientos humanos.

Matemáticamente, una función "spline" S(t) de grado (m) con nodos t1< t2<...< tn se define como aquella función que cumple las siguientes propiedades:

S(t) está definida en cada subintervalo (ti, ti+1), i = 1,.., n por algún polinomio de grado a lo más (m)

S(t) y sus derivadas de orden 1, 2....m -1 son funciones continuas en el intervalo (t1, tn)

En el caso de interpolación de (n) puntos por (n - 1) “splines” cúbicos, se utilizan polinomios de tercer grado para cada subintervalo que definen dos puntos (datos) consecutivos. Un polinomio cúbico tiene cuatro coeficientes, por lo tanto, se precisa determinar (4n - 4) parámetros. La continuidad de la función y de sus dos primeras derivadas en los (n -2) nodos no extremos proporciona 3 (n -2) ecuaciones, además, la condición de interpolación, según la cual el polinomio tiene que pasar por los puntos que definen los dos extremos del intervalo, proporciona (n) ecuaciones más y las dos ecuaciones restantes que determinan el sistema de (4n -4) ecuaciones son las condiciones de contorno donde se asume que la segunda derivada en los extremos (t1y tn) es cero. De modo, que para resolver el problema de la interpolación de (n) puntos/datos por medio de una función f(t) se busca la función “spline” que propociona la interpolación más suave minimizando la expresión representa la energía potencial de la curva que al ser mínima implica las mejores propiedades de suavizado para la interpolación de los valores de entrada.

Figura 2. Gráfica de la evolución de la segunda derivada (aceleración) de la función posición -tiempo, obtenida a través de funciones “spline” cúbicos (____) y quínticos (------), para un salto vertical donde la fuerza de reacción se ha registrado con una plataforma de fuerzas y representa los datos reales (…....) . (Adaptado de Wood y Jennings, 1979).

En el caso de que los valores f (ti) no sean equidistantes y contengan un cierto error (conocido), dado por los factores de peso {wi} (inversa de la varianza), se podrá emplear el método de Reinsch (1967, 1971), que proporciona una función "spline natural" Sp(ti) de grado (2m -1) para ajustar (n) datos (posición -tiempo) con nodos en cada (ti).

El objetivo es encontrar una función spline natural Sp(ti) de grado (2m -1) que haga mínima la expresión de la "integral de suavidad" bajo la condición de que el ajuste esté dentro de los límites de la "precisión de la medida", de modo que donde (S) es el "factor de suavizado", es decir, un parámetro que controla la intensidad del suavizado. Esta función tiene (2m - 2) derivadas continuas, cuyo valor (de orden m hasta 2m -2) en los extremos (t1 y tn) es cero y es la más suave que se ajusta a los datos dentro de la precisión de la medida (Wold, 1974). Esta técnica de ajuste puede dar problemas en el caso de que se disponga de pocos datos (<25) o cuando los intervalos de tiempo entre muestra y muestra sean muy diferentes.

Las funciones “spline” cúbicos para el ajuste y suavizado de los datos posición - tiempo se utilizansuponiendo, hecho que no es siempre realista, que la aceleración en los extremos es cero. Este problema se ha superado al recurrir a las funciones “spline” de quinto grado (Wood and Jennings, 1979), que sin lugar a dudas dan mejores resultados en el tratamiento de los datos posición - tiempo (Fig. 2).

Siguiendo la evolución de las técnicas de suavizado de los datos posición tiempo, hoy en día, en el campo de la Biomecánica está muy extendido el uso de un algoritmo muy potente (incluso para muestras no equidistantes), que se conoce como “GCVSPL” de las iniciales de “Generalised Cross Validation Spline” (Woltring, 1985; 1986).

Este algoritmo se basa en la definición de un "spline natural" de grado (2m 1) que se ajusta o interpola una secuencia de puntos/datos determinando la cantidad de suavizado requerido (Craven and Wahba, 1979). De modo que, en un intervalo de tiempo relativamente corto para realizar las operaciones necesarias, este algoritmo permite que:

. El usuario defina por decisión propia el parámetro de suavizado (p) para calcular el “spline”

. En el caso de que no se disponga de un estimador respecto a los errores que “contaminan” la medida, calcular automáticamente los valores óptimos de la función de ajuste de los datos según el criterio "Generalised Cross Validation (GCV)"

. Cuando se conoce la varianza del error contenido en los datos posición - tiempo y los pesos {wi} (la varianza del error para cada punto), la función de ajuste de los datos se calcula según el criterio "Mean - Squared Prediction Error (MSE)" (Craven and Wahba, 1979).

El ajuste de una secuencia de puntos/datos, no necesariamente equidistantes, a una curva definida por polinomios (“B -splines”), exige determinar los coeficientes de los polinomios de ajuste en función de dos criterios contrapuestos.

Es decir, por un lado, se pretende minimizar el error de ajuste y, por otro lado, se pretende conseguir una curva suave. Minimizar el error de ajuste significa una interpolación de los datos aceptando que las medidas son correctas, hecho que nunca ocurre. Así pues, se impone pasar la curva de ajuste a cierta distancia de los datos/puntos aceptando que la medida está afectada por "ruido blanco", de media cero y varianza (s2), de manera que se minimice la función objetivo (Cp) compuesta por un término que expresa el error intrínseco de la medida” y otro término que expresa la suavidad de la curva de ajuste”: Donde (ti) es la variable independiente (tiempo), (yi) es la medida en el instante (i), Sp (ti) el valor ajustado en el instante (i) de la función spline (Sp), (wi) el factor peso del error en el instante (i), de modo que a mayor (w) menor es la importancia del error, (p) peso de suavidad o factor de suavizado que regula la suavidad del spline. Para p = 0 se trata de una interpolación o sea yi = Sp(ti).

La curva de ajuste se encuentra minimizando la función objetivo (Cp ), donde el sumatorio representa el error de ajuste y la integral el grado de suavidad. En definitiva, se debe decidir qué importancia relativa o peso se da a la suavidad frente al error, ya que según el peso relativo, la solución es diferente. Por último, el grado del “spline” es importante, puesto que, es necesario definir las condiciones de contorno. El grado (2m -1) implica que en el instante inicial y final, la derivada de orden (2m 2) es cero. Esto en el caso de los “splines” cúbicos implica que la aceleración es cero, provocando errores en las primeras y últimas muestras de la secuencia registrada. En todo caso es recomendable tomar unas cuantas muestras más antes y después del intervalo de tiempo de interés y como se verá más adelante utilizar “splines” de quinto grado, puesto que la hipótesis de que la cuarta derivada sea cero es más probable.

Un “spline natural” puede definirse como un polinomio a trozos asociado a una serie de nodos seleccionados del eje de abcisas {xi}. Los polinomios de grado menor o igual que (2m -1) son continuos en los nodos al igual que sus derivadas hasta el orden (2m -2), mientras que las derivadas de orden (m) hasta (2m -2) se anulan en los extremos (x1 y xn).

Así que, dada una secuencia creciente de abcisas no necesariamente equidistantes {xi: x12<....n; n³2m} con sus correspondientes ordenadas, cuyos valores se deben ajustar a una curva óptimamente suave {yi}, con {wi} los factores de peso, el problema consiste en encontrar una función “spline natural” Sp(x), para un parámetro de suavizado (p³0) seleccionado adecuadamente, que minimiza la función La función “spline natural” Sp(x), puede expresarse como combinación lineal en términos de la base de “B -splines” {Bj (x): j = 1,....,n}, como de modo que se facilita el ajuste y la diferenciación.

Así que, para un factor de suavizado (p) debe encontrarse un óptimo entre la suavidad del “spline” y la calidad de ajuste de los datos, de modo que para ajustar los datos que contienen "ruido", el problema más importante, especialmente cuando se tienen que calcular las magnitudes derivadas, es seleccionar adecuadamente el parámetro de suavizado (p). Al suponer que los datos están “contaminados” con "ruido blanco" de media cero y varianza (s²) no necesariamente conocida, se tiene:

-Si la varianza (s²) es conocida, el error medio cuadrático tiene que ser muy parecido a la varianza (Reinsch, 1967), o sea, y es posible, a través de un proceso iterativo, ajustar el parámetro de suavizado (p) hasta que (Rp) alcance un valor previamente elegido (Lyche et al., 1983)

-Si la varianza (s²) no es conocida, el usuario tendría que recurrir al método de prueba y error para encontrar un valor adecuado del factor de suavizado (p) a ojo.

Como alternativa a este planteamiento, se ha demostrado (Craven and Wahba, 1979) que:

- Si se conoce(s²) es preferible seleccionar el parámetro de suavizado (p), de manera que, se minimice el estimador "true predicted mean - squared error (MSE)" en los puntos/datos
- Si(s²) no se conoce, se puede elegir el parámetro de suavizado (p) minimizando la función conocida como "Generalized Cross - Validation (GCV)" (Craven and Wahba, 1979).

Dado que, tanto el "true predicted mean - squared error (MSE)" como la ("Generalized Cross -Validation" expresan relaciones no -lineales del parámetro de suavizado (p), se requieren procesos iterativos para minimizar cada una de las funciones objetivo para los puntos dados y factores de peso. Para facilitar la ejecución de estos procesos iterativos, reduciendo el tiempo de cálculo, varios autores propusieron distintos algoritmos entre los cuales destaca por su eficacia el algoritmo “Generalized Cross - Validatory Spline (GCVSPL)” para el suavizado y la diferenciación desarrollado por Woltring (1986).

Figura. 3. Representación gráfica de la componente en la dirección de la diana de la velocidad de diferentes marcadores asociados al sistema tirador arma durante la práctica de tiro olímpico.

El algoritmo "Generalized cross - validation" según el criterio "true predicted mean -squared error" se ha utilizado (Gianikellis, 1996) para “ajustar” las coordenadas espaciales de diferentes marcadores asociados al sistema tirador - arma en el tiro olímpico, empleando polinomios de grado cinco, con excelentes resultados. Al tratarse de un gesto cuasi -estático la eficiencia de la técnica de ajuste es un factor muy critico para la fiabilidad de los parámetros cinemáticos obtenidos. De este modo se ha podido por primera vez determinar el orden de magnitud de las de pequeña amplitud oscilaciones del sistema tirador - arma y la velocidad con la que este oscila (Fig. 3).

1.4. Técnicas basadas en el “filtrado digital” de los datos posición -tiempo (Winter, 1979).

Otra práctica común es el "filtrado digital" de los datos posición -tiempo utilizando un “filtro de Butterworth” de segundo orden, especialmente para secuencias de datos que corresponden a patrones de movimientos periódicos como la marcha humana. De este modo, en primer lugar, se pretende mejorar la relación “señal/ruido" y acto seguido calcular las derivadas por diferencias finitas (Winter, 1979), aunque en casos de secuencias de datos no periódicas esta operación puede ser problemática.

Un filtro digital es un dispositivo selectivo de frecuencias, de modo que acepta como entrada una secuencia E(t) de valores discretos equiespaciados y opera sobre estos para producir en la salida otra secuencia de números S(t) en una banda de frecuencia limitada. Por consiguiente, el "filtrado digital" consiste en eliminar cierta parte del espectro de una función que, normalmente, representa el "ruido" que contiene la señal, dejando intacta la parte de la señal que corresponde a los valores verdaderos de la medida.

A modo de ejemplo, se considera la fórmula de un filtro digital recursivo: X' (nt) =A0X(nt) +A1X(nt-t) +A2X(nt -2t) +B1X'(nt -t) +B2X'(nt -2t) donde la salida (coordenadas filtradas) (X' (nt)) depende de una manera ponderada de los datos originales inmediatos (A0X (nt)) y anteriores (A1X (nt -t) + A2X (nt -2t)), y además de las anteriores salidas (B1X' (nt -t) + B2X' (nt -2t)) (datos filtrados). Las constantes (A0,..., B2) son los coeficientes del filtro que dependen del tipo y del orden del filtro, la frecuencia de muestreo y la frecuencia de corte. (X) los datos de las coordenadas originales y (nt) la enésima muestra, (nt - t) la muestra (n - 1), (nt - 2t) la muestra (n - 2).

Existen básicamente tres tipos de filtros según su función de transferencia. Es decir, el filtro paso bajo, el filtro paso alto, el filtro paso banda. La idea es mejorar la relación "señal/ ruido" analizando el contenido en frecuencia de sus espectros (Fig. 4).

Como se puede observar, lo que es información respecto al fenómeno físico de interés (señal) está contenida en frecuencias bajas, mientras que, los errores aleatorios ("ruido") corresponden a frecuencias altas y en una parte del espectro coexisten ambas. El filtrado sirve para rechazar o atenuar selectivamente algunas frecuencias. En este caso, se trata de un filtro paso bajo que permite pasar intactas las frecuencias bajas atenuando las frecuencias altas. De esta manera, mejora la relación “señal/ ruido" aunque se pierda una cantidad de información en frecuencias cercanas a la frecuencia de corte (fc). Si la selección de la frecuencia de corte no es correcta, la medida, especialmente cuando no se conoce el contenido en frecuencia de la señal asociada a determinados patrones motores, puede verse seriamente comprometida.

Figura 4. a) Espectro en frecuencia de una señal que consiste en una parte que representa la información respecto al fenómeno físico y otra parte de altas frecuencias que representa el "ruido". b) La respuesta en frecuencia de un filtro paso bajo para atenuar el "ruido". c) El espectro de la salida obtenido multiplicando la amplitud de la entrada por la respuesta del filtro en cada frecuencia. Como se observa, el ruido se atenúa sensiblemente, mientras que, la señal sufre una pequeña distorsión alrededor de la frecuencia de corte (fc). (Adaptado de Winter, 1990).

La frecuencia de corte, en teoría, debe ser menor que la mitad de la frecuencia de muestreo para evitar el "aliasing", aunque lo ideal sería una ratio 1:4. Como criterio en la selección de la frecuencia de corte se recomienda comparar la raíz del error medio cuadrático (RMSE) entre los datos originales y los obtenidos después del filtrado en varias frecuencias de corte con la desviación típica obtenida por la digitalización repetitiva del mismo punto anatómico. Cuanto menor es la diferencia mejor es el filtrado, o sea, más correcta es la selección de la frecuencia de corte (Kerwin, 1988). Con el filtrado digital, los armónicos se desfasan en frecuencia, de modo que, se requiere un filtrado en la dirección opuesta de los datos, operación que aumenta el orden del filtro. Destacamos por último el hecho de que los filtros recursivos son más rápidos pero introducen errores en los extremos de las secuencias de datos, por lo tanto se tienen que tomar unas cuantas muestras más.

1.5. Técnicas basadas en las series de Fourier (Hatze, 1981).

Este método consiste en transformar los datos posición -tiempo en el dominio de la frecuencia utilizando un algoritmo bien conocido como es la transformada rápida de Fourier o (FFT) de las iniciales del término inglés Fast Fourier Transformation y una vez reconstruidos los datos posición tiempo con la transformada inversa de Fourier hasta un determinado número de armónicos, calcular las derivadas (velocidad y aceleración). Las series de Fourier constituyen una herramienta muy potente para el tratamiento de los datos que representan los fenómenos físicos y su estudio en el dominio de la frecuencia.

En el campo de la Biomecánica, varios autores han utilizado análisis Fourier para describir los patrones del movimiento humano a través de una serie de armónicos determinando su contenido en frecuencia. Una vez conocido el número de armónicos necesario para reconstruir con precisión los datos posición -tiempo (la varianza de los residuos se aproxima a un valor mínimo preestablecido), se calcula la velocidad y la aceleración. Por último, antes de diseñar un filtro digital se utiliza análisis Fourier para conocer el espectro en frecuencia de los datos posición - tiempo y estimar la frecuencia de corte del filtro.

Una señal temporal x(t) puede ser caracterizada en el dominio de la frecuencia. Si x(t) es periódica de período (T), o sea, [x(t) = x(t+T)], se descompone en una serie de Fourier de infinitos términos trigonométricos,

que según las propiedades de la exponencial compleja y de la paridad de las funciones seno y coseno se puede escribir como:

cuenta las propiedades de las funciones trigonométricas, la función x(t) también puede expresarse como una serie infinita de términos armónicos de frecuencias múltiples de la frecuencia fundamental (1/T) cada uno de ellos con amplitud (Ak) y fase (bk) donde, de modo que, se pueda conocer la estructura básica de estos armónicos y de qué manera se puede aproximar una secuencia de datos periódicos por una combinación ponderada de términos armónicos.

La transformada de Fourier (TF) es una generalización de las series de Fourier que permite la caracterización de funciones x(t) no periódicas en el dominio de la frecuencia. Dada una función x(t) tal que, se define su transformada de Fourier transformación inversa de Fourier, según,

En la práctica, donde las señales temporales registradas no son continuas sino muestreadas durante un intervalo de tiempo, se obtiene una secuencia de valores (xn), para n = 0,1,....N -1. Para estimar la transformada de Fourier de esta señal a partir de sus valores muestreados (Xn), la integral se sustituye por el sumatorio para n = 0,1,2...N -1. Esta ecuación constituye la definición de la transformada discreta de Fourier (TDF). Así pues, la secuencia (Xn) es la (TDF) de la secuencia (xn). Se define la transformada inversa discreta de Fourier (TIDF) como la operación para n = 0,1,2...N -1 que recupera los valores (Xn) originales. La eficacia de su aplicación depende de dos factores fundamentales: la frecuencia de muestreo y la truncación de la señal.

La frecuencia de muestreo es un factor crítico en la digitalización de una señal continua para que no se distorsione la información que conlleva la señal x(t) al transformarse en una serie de valores discretos (xk).

El "teorema de muestreo" afirma que si x(t) es limitada en banda, o sea, X(f) es nula para frecuencias (f) tales que |f| > fmax, la función x(t) en cualquier punto puede ser reconstruida a partir de sus valores discretos (xk), si el muestreo se ha efectuado con (Dt £1/2fmax) o (1/Dt ³ 2fmax), fijando de esta manera la frecuencia de digitalización mínima necesaria. Para un intervalo de muestreo dado (Dt), la frecuencia (fN=1/2Dt) se conoce como frecuencia de Nyquist. Si el espectro de la señal x(t) original tiene componentes superiores a la frecuencia de Nyquist, tiene lugar el fenómeno que se conoce como solapamiemto o "aliasing", es decir, “las componentes de la señal que corresponden a frecuencias superiores a (fN) se asignan en la TDF a frecuencias inferiores, o sea dentro de la banda de Nyquist ( |f| < fN), con la consiguiente distorsión de la TDF". Por tanto, cuando a priori se desconoce el contenido en frecuencia de la señal que se pretende muestrear, la señal se muestrea a una frecuencia muy elevada con el fin de evitar el "aliasing". Otro problema práctico que ocurre en la aplicación de la TDF, como consecuencia de la aplicación de la ventana temporal, es lo que se conoce como error de truncación o "leakage". Por el teorema de convolusion resulta que la transformada de Fourier de la señal truncada es la convolución de la transformada de Fourier de la señal propiamente dicha y de la transformada de Fourier de la ventana temporal, que se tiene que elegir según la aplicación concreta. El algoritmo transformada rápida de Fourier (FFT) minimiza el tiempo de cálculo necesario para la caracterización de señales muestreadas en el dominio de la frecuencia al reducirse considerablemente el número de operaciones algebraicas. De modo que se reduce tanto el tiempo de procesamiento de los datos como los errores numéricos de redondeo de los valores obtenidos. La aplicación directa de la TDF requiere la ejecución de (N) multiplicaciones del tipo (xe-j2pkn/N) para cada uno de los armónicos calculados, o sea, un total de (N²) productos. Mediante el algoritmo de la FFT este número se reduce sensiblemente a (N x log2N).

Evaluación comparativa de las técnicas de tratamiento de los datos posición tiempo.

La selección entre las distintas técnicas de tratamiento de los datos posición tiempo para mejorar la relación “señal -ruido” y calcular la primera y la segunda derivada, debe hacerse bajo las siguientes consideraciones:

. Con qué precisión la técnica de tratamiento puede predecir la primera y la segunda derivada de la señal y el tiempo necesario para ejecutar el algoritmo utilizado

. Si se opta por el “filtrado” la respuesta en frecuencia del filtro

. La selección del parámetro de suavizado o de la frecuencia de corte para un filtro Butterworth no debe basarse en apreciaciones subjetivas por parte del usuario

. Si se pretende “filtrar” datos no equiespaciados se utilizarán primero las funciones “spline” para interpolar los datos y obtener una secuencia de valores preparados para filtrado digital o análisis Fourier

. El factor peso, que tiene que ver con la calidad de los datos registrados, puede ser variable para distintos marcadores y/o coordenadas del mismo marcador

. Las funciones “splines” resultan ser muy útiles cuando se requiere sincronizar señales procedentes de distintos sistemas de medida como por ejemplo sincronizar las medidas de un sistema optoelectrónico con las de una plataforma de fuerzas

. Cuando se utilizan sistemas de medida que muestrean los marcadores secuencialmente por varios canales (multiplexado en el tiempo) se utilizan funciones “spline” para conocer las coordenadas de los marcadores en el mismo instante

Obviamente, las funciones “spline” tienen propiedades que las convierten en herramientas muy potentes para el tratamiento de los datos posición -tiempo en el campo de la Biomecánica.

Trabajos realizados con el objetivo de valorar la eficacia de las distintas técnicas de tratamiento de datos utilizando como criterio el error cometido en el cálculo de la segunda derivada (Challis and Kerwin 1988; Tsirakos et al., 1995), han demostrado que, entre las distintas técnicas de tratamiento de los datos posición tiempo, la técnica “Cross - Validated Quintic Splines” según el criterio “true mean squared predicted error” da excelentes resultados respecto a la calidad del ajuste siempre que el número de muestras sea suficiente (>50).

En otro estudio realizado con el objetivo de evaluar la calidad de la misma técnica de ajuste de los datos posición - tiempo, a través de simulación de errores, se ha confirmado su excelente comportamiento aún en patrones de movimiento cuasi estáticos, puesto que los errores respecto a la posición no superan el 3% y respecto a la velocidad de los marcadores no superan el 10% del rango medio de su movimiento real (Gianikellis, 1996).

De modo que se justifica el cada vez mayor uso de esta técnica en el tratamiento de los datos posición -tiempo en el campo de la Biomecánica, puesto que :

. No exige datos equiespaciados en el dominio del tiempo

. El suavizado y la diferenciación se llevan a cabo por la misma técnica, mientras que con el filtrado al no tener los datos de una forma analítica, las derivadas se calculan aparte

. No es necesario conocer el error en los datos originales, dado que, el parámetro de suavizado se selecciona automáticamente

. Presenta mayor precisión respecto a las otras técnicas más comunes y la ejecución de los algoritmos es más rápida.

 

REFERENCIAS

CANDELA PÉREZ, F. (1989). Técnica de análisis cinemático de los movimientos humanos basada en el “suavizado” de trayectorias. Proyecto fin de carrera,

E .T.S.I.I. de la Universidad Politécnica de Valencia.

CHALLIS, J.H.; KERWIN, D.G. (1988). An evaluation of splines in biomechanical data analysis. In Biomechanics XI - B (Ed. by G. de Groot, A.P.; Hollander, P.A. Huijing and G.J: van Ingen Schenau). 1057 - 1061. Amsterdam: Free University Press.

CRAVEN, P.; WAHBA, G. (1979). Smoothing noisy data with spline functions. Num. Math., 31, 377- 403.

DIERCKX, P. (1975). An algorithm for smoothing, differentiation and integration of experimental data using spline functions. Journal of Computation and Applied Mathematics, 1, 165 - 184.

GIANIKELLIS, K. ; DURA, J.V. ; HOYOS, J.V. (1995). A three - dimensional biomechanical analysis of the human kinetic chain motor patterns during the aiming in air -rifle shooting. In proceedings of XVth Congress of the International Society of Biomechanics, 322 - 323. Jyväskylä, Finland.

GIANIKELLIS, K. (1996). Desarrollo de una Metodología para Análisis Biomecánico en los Deportes de Precisión. Aplicación en el Tiro Olímpico. Tesis Doctoral.

E.T.S.I.I. Universidad Politécnica de Valencia.

GREGOR, R.J.; KIRKENDALL, D. (1978). Performance efficiency of world class female marathon runners. In Biomechanics VI -B, edited by Asmussen, E. and Jorgensen, K. Baltimore: University Park Press, 40 - 45.

GUTIÉRREZ, M. (1989). Desarrollo de un sistema computerizado de análisis cinematográfico y su sincronización con los registros directos para el análisis del movimiento humano. Tesis Doctoral. Universidad de Granada.

HATZE, H. (1981a). The use of optimally regularized Fourier series for estimating higher-order derivatives of noisy biomechanical data. Journal of Biomechanics, 14, 13 18.

LANSHAMMAR, H. (1982). On precision limits for derivatives numerically calculated from noisy data. Journal of Biomechanics, 15, 6, 459 - 470.

NAVARRO CABELLO, E. (1994). Análisis Biomecánico de la técnica individual del lanzamiento de jabalina. Tesis Doctoral. E.T.S.I.I. Universidad Politécnica de Valencia.

PEZZACK, J.C.; NORMAN, R.W.; WINTER, D.A. (1977). An assessment of derivative determining techniques used for motion analysis. J. Biomechanics, 10, 377 -382.

REINSCH, C.H. (1967). Smoothing by spline functions. Numerical Mathematics, 10, 177 -183.

TSIRAKOS, D., DABNICHKI, P. ; BARTLETT, R. (1995). Accuracy of smoothing technique as a function of the number of data points in a given data set. XVth Congress of the International Society of Biomechanics, 934 - 935. Jyväskylä, Finland.

VAUGHAN, C.L. (1982). Smoothing and differentiation of displacement -time data: An application of splines and digital filtering. International Journal of Bio -Medical Computing, 13, 375 - 385.

WINTER, D.A.; SIDWALL, H.G.; HOBSON, D.A. (1974). Measurement and reduction of noise in kinematics of locomotion. Journal of Biomechanics, 7, 157 - 159.

WINTER, D.A. (1990). The biomechanics and motor control of human movement. John Wiley and Sons, New York.

Wold, S. (1974). Spline functions in data analysis. Technometrics 16. 1 - 11.

WOLTRING, H.J. (1984). On methodology in the study of human movement. In Human motor actions (edited by Whiting, H.T.A.), 35 -73. Elsevier Science Publishers, Amsterdam.

WOLTRING, H.J. (1986). A Fortran package for generalized, cross - validatory spline smoothing and differentiation. Advances in Engineering Software, 8, 2, 104 -113.

WOOD. G.A.; JENNINGS, L.S. (1979). On the use of spline functions for data smoothing. Journal of Biomechanics, 12, 477 - 479.

WOOD, G.A. (1982). Data smoothing and differentiation procedures in biomechanics. In Exercise and Sport Sciences Reviews, 10, 308 - 362 (Ed. by R.L. Terjung). New York: Franklin Institute Press.