UNIVERSIDAD PABLO DE OLAVIDE
ESCUELA POLITÉCNICA SUPERIOR
Grado en Ingeniería Informática en Sistemas de Información
TRABAJO FIN DE GRADO
Desarrollo de un algoritmo para la detección automática de
patrones precursores de terremotos
Autor:
Luis Carlos Díaz Chamorro
Tutor:
Dr. Francisco Martínez Álvarez
1
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Agradecimientos
Primeramente me gustaría decir que este año ha sido uno de los más difíciles de la
universidad, ya que no es tarea fácil llevar a cabo el proyecto fin de grado mientras estas
estudiando fuera de tu país, con otro idioma, otra cultura y otra forma de enseñanza. No
obstante esto no ha sido ningún impedimento para comunicarme con mi tutor, por ello
me gustaría empezar dándole las gracias a mi tutor Dr.Francisco Martínez Álvarez, por
su ayuda y dedicación durante el desarrollo de todo el proyecto y por ofrecerme esta
oportunidad de realizar un proyecto tan importante.
A continuación, me gustaría dedicarle mi sincero agradecimiento a Daniel Muñiz Amian
por su colaboración en el trabajo fin de grado. También me gustaría dedicarle mi sincero
agradecimiento a Aurelio López Fernández, puesto que gracias a él y a Daniel Muñiz
hemos formado un grupo de estudio increíble, con una coordinación inmejorable y una
motivación impresionante, sin olvidar siempre el buen humor, optimismo y amabilidad
que nos ha llevado a ser grandes amigos de forma incondicional.
A mi familia, por su apoyo incondicional y por animarme a entrar en la universidad, ya
que pude aprender de ellos que si quieres conseguir algo, solo tienes que confiar en ti
mismo y no rendirte nunca, no hay nada imposible.
A mis amigos, puesto que gracias a su comprensión y cariño, han sido el hombro donde
apoyarme cuando las cosas salían mal.
A los profesores de la universidad, por su dedicación en la enseñanza, que aprendí de
ellos que no importa lo difícil que sea una asignatura, porque con esfuerzo y
compañerismo se puede aprobar e incluso sacar matrícula de honor.
A todas las personas que han pasado por mi vida, puesto que gracias a ellos he aprendido
algo de cada uno que me ha hecho ser mejor persona de forma profesional y/o personal.
Gracias, de corazón, a todos vosotros.
3
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
4
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Índice de contenido 1. Introducción ............................................................................................................. 7
1.1. Motivación ................................................................................................................... 7
1.2. Objetivos ...................................................................................................................... 8
2. Estado del arte ....................................................................................................... 10
2.1. Resumen ..................................................................................................................... 10
2.2. Introducción ............................................................................................................... 11
2.3. Modelos de procesos físicos ...................................................................................... 13
2.4. Modelos de sismicidad arreglados ........................................................................... 19
2.5. Conclusiones .............................................................................................................. 25
3. Descubrimiento de conocimiento a partir de grandes bases de datos (KDD).. 27
3.1. Introducción ............................................................................................................... 27
3.2. Adquisición de datos ................................................................................................. 29
3.3. Preprocesamiento y transformación ........................................................................ 30
3.4. Minería de datos ........................................................................................................ 31
3.5. Evaluación .................................................................................................................. 43
3.6. Interpretación ............................................................................................................ 44
4. Desarrollo de una metodología para la detección de patrones precursores de
terremotos...................................................................................................................... 45
4.1. Preprocesamiento y transformación ........................................................................ 45
4.1.1. Filtrado ............................................................................................................... 45
4.1.2. Clustering ........................................................................................................... 45
4.2. Minería de datos ........................................................................................................ 46
4.2.1. Filtrado ............................................................................................................... 47
4.2.2. Clustering ........................................................................................................... 50
4.2.3. Estadísticas ......................................................................................................... 51
5. Interfaz gráfica y resultados ................................................................................ 61
5.1. Interfaz gráfica .......................................................................................................... 61
5.1.1. Modo automático ............................................................................................... 61
5.1.2. Modo manual ..................................................................................................... 65
5.2. Resultados .................................................................................................................. 68
5.2.1. Resultados Talca ................................................................................................ 68
5.2.2. Resultados Pichilemu ........................................................................................ 69
5.2.3. Resultados Santiago .......................................................................................... 71
5.2.4. Resultados Valparaíso ....................................................................................... 72
6. Conclusión .............................................................................................................. 74
5
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
6.1. Conocimientos aplicados de las asignaturas ........................................................... 76
7. Referencias ............................................................................................................. 78
6
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Índice de Figuras
Figura 1: Proceso de negocio.......................................................................................... 46
Figura 2: Organización de los atributos del archivo ARFF ............................................ 47
Figura 3: Seleccionamos los atributos necesarios .......................................................... 48
Figura 4: Seleccionamos los datos necesarios y los agrupamos ..................................... 49
Figura 5: Archivo ARFF ya clusterizado ....................................................................... 51
Figura 6: Extraer resultados del archivo ARFF .............................................................. 52
Figura 7: [Combinación] aciertos / ocurrencias ........................................................ 52
Figura 8: Montar los árboles ........................................................................................... 53
Figura 9: Cálculo de valores (I) ...................................................................................... 53
Figura 10: Cálculo de valores (II) .................................................................................. 54
Figura 11: Elegir mejores nodos (I) ................................................................................ 54
Figura 12: Elegir mejores nodos (II) .............................................................................. 55
Figura 13: Conjunto de combinaciones de W seleccionado ........................................... 60
Figura 14: Elegir modo ................................................................................................... 61
Figura 15: Modo automático – parte 1 ........................................................................... 61
Figura 16: Modo automático – parte 2 ........................................................................... 62
Figura 17: Modo simple de visualizado ......................................................................... 63
Figura 18: Modo complejo de visualizado ..................................................................... 64
Figura 19: Modo complejo. Filtrado............................................................................... 65
Figura 20: Modo complejo. Clusterizado ....................................................................... 65
Figura 21: Modo complejo. Estadísticas ........................................................................ 66
Figura 22: Modo complejo. Predicciones ....................................................................... 67
Figura 23: Resultados Talca ........................................................................................... 68
Figura 24: Resultados Pichilemu .................................................................................... 69
Figura 25: Resultados Santiago ...................................................................................... 71
Figura 26: Resultados Valparaíso ................................................................................... 72
Índice de tablas
Tabla 1: Conocimientos aplicados de las asignaturas de primer curso .......................... 76
Tabla 2: Conocimientos aplicados de las asignaturas de segundo curso ........................ 76
Tabla 3: Conocimientos aplicados de las asignaturas de tercer curso ............................ 77
Tabla 4: Conocimientos aplicados de las asignaturas de cuarto curso ........................... 77
7
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
1. Introducción
La Real Academia de la Lengua Española (RAE) define literalmente a los terremotos
como “sacudida del terreno, ocasionada por fuerzas que actúan en lo interior del globo”
Esta definición aunque no es completa, pero define a grandes rasgos a tal sorprende
evento. El estudio de seísmo es muy antiguo y se han registrado durante años, pero que
se registre no quiere decir que se comprendieran.
Actualmente se utiliza estos datos registrados para comprender el comportamiento de los
terremotos y de esta forma poder predecir con casi total seguridad cuando va a ocurrir
uno y de que magnitud podría ser, gracias a esto se podría ahorrar muchas muertes por
seísmos ya que al anticiparnos nos permite tener un margen de tiempo para prepararnos.
Las consecuencias de los terremotos están asociadas a los grados de intensidad en la
escala de Richter. Cada año aproximadamente se producen 300000 seísmos en toda la
superficie con escalas entre 2 y 2,9 grados. Los terremotos de mayor intensidad de
aproximadamente 8 grados se producen en períodos que oscilan entre 5 y 10 años.
- Menos de 3,5 grados: terremoto que se pueden registrar, pero difícil de percibir,
en este caso no causa daño.
- 3,5 a 5,4 grados: el temblor se puede percibir, pero es poco probable que cause
destrucción.
- Menos de 6,0 grados: terremoto capaz de producir daños graves a los edificios
pequeños o edificios de pobre calidad y daños leves al resto de edificios.
- 6,1 a 6,9 grados: desprende una cantidad de energía que puede crear el caos y
daños en un área de 100 km alrededor del epicentro.
- 7 a 7,9 grados: energía de alto potencial en libertad que puede afectar a los
cimientos de edificios y causar grietas en la superficie, dañando los sistemas de
agua y alcantarillado que están bajo tierra y produciendo su ruptura.
- 8 a 8,5 grados: temblor grande de lo que se deriva una gran destrucción en los
edificios en general y puentes en ruinas donde casi ninguna construcción es capaz
de soportar la energía liberada.
- 9 grados: destrucción total.
- 12 grados: (hipotéticamente) podría romper la Tierra por la mitad.
1.1. Motivación
Debido a la gran cantidad de muertes y accidentes que provocan los desastres naturales,
me he centrado en los terremotos. En concreto, he seleccionado la zona de Chile puesto
que es uno de los países con mayor actividad sísmica a nivel mundial. Pero ¿por qué
sucede en Chile?
Esto es debido a que se encuentra sobre una placa relativamente joven, en donde es más
probable que se den movimientos fuertes como ahí se han dado, recordemos, que en Chile
es donde ha registrado el terremoto de mayor magnitud.
8
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Por este motivo he elegido a Francisco Martínez como tutor, ya que es la persona más
adecuada para orientarme y ayudarme a desarrollar este proyecto debido a su trayectoria
profesional en el campo de la minería de datos aplicada a la geofísica.
Debido a la gran cantidad de información que se puede obtener hoy en día de numerosas
bases de datos, resulta imprescindible la utilización de herramientas de procesado
automático de datos. En ese sentido, el desarrollo de algoritmos avanzados y complejos
ha sido siempre uno de los puntos que más me atraían del Grado en Ingeniería Informática
en Sistemas de Información que estoy cursando. La motivación, por tanto, es la de
desarrollar un algoritmo eficiente y eficaz para el procesado automático de datos de origen
sísmico.
1.2. Objetivos
Hoy en día, se cuenta con grandes cantidades de información almacenadas, pero ¿cómo
extraer alguna conclusión de esos datos? ¿Siguen algún patrón? ¿Es posible predecirlos?
Actualmente, debido a los avances científicos en todos los campos, se ha podido explicar
detalladamente el origen de estos sorprendentes fenómenos, los terremotos, registrando
todo tipo de información acerca de ellos.
Es en este punto donde se centra el objeto de este estudio. Con la ayudad de técnicas
estadísticas, inteligencia artificial e informática, se intentará dar una respuesta en este
campo.
Como se explicará más detalladamente más adelante, se va a seguir la metodología
Knowledge Discovery in Databases (KDD). Este proceso consiste en el descubrimiento
de existencia de información valiosa pero desconocida con anterioridad. Consta de varias
fases, como son la adquisición de datos, preprocesamiento y transformación, minería de
datos, evaluación e interpretación.
Se ha escogido Chile debido a que es considerado uno de los países más activos, en
términos sísmicos, debido en gran parte por su ubicación en el Cinturón de fuego del
Pacífico. Se le llama así por encontrarse el territorio continental junto a la zona de
subducción de la placa de Nazca, bajo la placa Sudamericana, mientras que al sur, la
subducción se produce por la placa Antártica que se mueve a menor velocidad.
Se han obtenido datos sobre las cuatro ciudades más activas y con más población en riesgo
de Chile, que son:
- Santiago.
- Valparaíso.
- Talca.
- Pichilemu.
Dichos datos son unos históricos que reúnen ciertas características sobre los terremotos
que han ocurrido a lo largo de un periodo.
9
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
El software que he desarrollado puede obtener información valiosa a partir de dichos
datos, pudiendo establecer un patrón y por consiguiente intentar predecir terremotos.
Dicho software se ha realizado con lenguaje de programación Java y la biblioteca gráfica
para java, llamada Swing. Swing incluye widgets para interfaz gráfica de usuario tales
como cajas de texto, botones, desplegables, tablas,… De este modo su uso es más fácil e
intuitivo.
Por tanto, los objetivos de este trabajo se pueden resumir en:
1. Desarrollo de un algoritmo eficiente y eficaz, capaz de descubrir patrones
precursores de terremotos.
2. Diseño de un software de fácil uso para diseminar la aplicación, que incluya una
interfaz gráfica amigable.
3. Aplicación de técnicas de minería de datos para la fácil interpretación y
evaluación de los resultados.
10
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2. Estado del arte
2.1. Resumen
Los sistemas de terremotos de fallas interactúan sobre un amplio espectro de escalas
espaciales y temporales, y en años recientes, estudios sobre la sismicidad regional en una
gran variedad de regiones han producido un gran número de nuevas técnicas para la
predicción de seísmos basados en la sismicidad. A pesar de que una gran variedad de
supuestos físicos y aproximaciones científicas son incorporados en varias metodologías,
todos ellos se esfuerzan en replicar con precisión las estadísticas y propiedades de los
registros sísmicos históricos e instrumentales. Como resultado, los últimos diez años han
visto progresos significativos en el campo de la predicción de terremotos basados en la
sismicidad a medio y corto plazo. Estos incluyen acuerdos generales en la necesidad de
tests prospectivos e intentos de éxito para estandarizar los métodos de evaluación y la
apropiada hipótesis nula.
Aquí diferenciamos los enfoques predominantes en los modelos basados en técnicas para
identificar procesos físicos y aquellas que filtran o arreglan/suavizan la sismicidad. La
comparación de los métodos sugiere que mientras los modelos sísmicos
arreglados/suavizados proporcionan mejor capacidad de predicción en periodos de
tiempo más largos, se logra una mayor probabilidad durante periodos de tiempo más
cortos con métodos que integran técnicas estadísticas con el conocimiento de los procesos
físicos, tales como el modelo de secuencia de réplica de tipo epidémico (ETAS del inglés
epidemic-type aftershock sequence) o los relacionados con cambios en la variable b, por
ejemplo. En general, mientras ambas clases de predicción basados en sismicidad están
limitadas por el relativamente corto periodo de tiempo disponible para el catálogo
instrumental, se han hecho importantes avances en nuestra comprensión de las
limitaciones y el potencial de la predicción de terremotos basados en la sismicidad.
Existe un acuerdo general entre predicciones a corto plazo, entendiéndose esto como días
o semanas, y predicciones a largo plazo sobre periodos de entre 5 a 10 años. Este progreso
reciente sirve para iluminar la naturaleza crítica de las diferentes escalas temporales
intrínsecas al proceso de los terremotos y la importancia de datos sísmicos de alta calidad
para la correcta cuantificación del peligro sísmico en función del tiempo.
11
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2.2. Introducción
El impacto que los grandes terremotos causan para la vida y la propiedad es
potencialmente catastrófico. En 2010, el seísmo de magnitud 7.0 en Haití, fue el quinto
más mortal registrado, matando a más de 200.000 personas y causando daños valorados
en unos 8 billones de dólares (Cavallo et al., 2010). El daño económico directo del
terremoto de magnitud 8.8 que sacudió Chile en febrero de 2010 alcanzó unos 30 billones
de dólares, o lo que es lo mismo, el 18% de la producción económica anual de Chile
(Kovacs, 2010). Como resultado del impacto regional y nacional de grandes terremotos,
las investigaciones en sus predicciones se han realizado desde hace casi 100 años, con
intervalos marcados por el optimismo, el escepticismo y el realismo (Geller et al., 1997;
Jordan, 2006; Kanamori, 1981; Wyss, 1997).
Hace más de diez años, esta controversia eclosionó en lo que ha llegado a ser conocido
en la comunidad como debates sobre la naturaleza (Main, 1999b).
Provocado en gran medida por la aparente falta de éxito del experimento predictivo de
Parkfield (Bakun et al., 2005), se centró en última instancia en la naturaleza de los propios
terremotos y si podrían ser intrínsecamente impredecibles. Si bien esta cuestión aún no
se ha decidido, marcó un punto de inflexión en el campo de la ciencia de los terremotos.
Tal es así que la predicción de seísmos hoy día, o la evaluación del peligro sísmico en
función del tiempo, con errores y probabilidades asociados, es ahora el estándar en la
investigación predictiva de terremotos.
Al mismo tiempo, una gran cantidad de datos sísmicos a niveles de magnitud
progresivamente más pequeños, han sido registrados durante los últimos 40 años. En parte
relacionado con el objetivo original de esfuerzos tales como el experimento de Parkfield
y en parte por el reconocimiento de que hay todavía mucho que aprender sobre el proceso
subyacente, particularmente después de que la predicción de Parkfield pasará sin ningún
terremoto (Bakun et al., 2005).
Si bien se ha reconocido desde hace tiempo que la agrupación temporal y espacial es
evidente en los datos sísmicos, muchas de las investigaciones asociadas con estos
patrones en los primeros años se centraron en una fracción relativamente pequeña de los
eventos principalmente en las magnitudes más grandes (Kanamori, 1981).
Aunque este cuerpo de la investigación representa importantes intentos para describir
estos patrones característicos usando funciones de densidad de probabilidad empírica, se
vio obstaculizado por las pobres estadísticas asociadas con el pequeño número de eventos
moderados a grandes, ya sea disponible o considerado para el análisis.
La disponibilidad de nuevos y más grandes conjuntos de datos junto con los avances
computacionales que facilitaban el análisis de complejas series temporales, incluyendo
simulaciones, pruebas estadísticos rigurosos y técnicas de filtrado innovadoras, dieron un
nuevo impulso a la predicción de terremotos cuando el campo fue aparentemente
polarizado por el tema (Nature Debates, Debate on earthquake forecasting,
http://www.nature.com/nature/debates/earthquake, Main, 1999b; Jordan, 2006).
En 2002, se publicó la primera predicción prospectiva usando datos de terremotos de baja
magnitud (Rundle et al., 2002). Este hecho fue seguido por un renovado interés en
12
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
metodologías basadas en la sismicidad y generaron nuevos esfuerzos para lograr una
mejor definición y pruebas de estas técnicas.
Iniciativas importantes en la validación y en el área de pruebas de la predicción de
terremotos incluyen el grupo de trabajo en modelos de probabilidad de seísmos regional
(RELM del inglés Regional Earthquake Likelihood Models) así como The Collaboratory
on the Study of Earthquake Predictability (CSEP) ambos fundados después del 2.000
(Field, 2007; Gerstenberger and Rhoades, 2010; Zechar et al., 2010).
Aunque una serie de fenómenos precursores potenciales existen además de los asociados
con cambios en la seismicidad, incluyendo precursores de inclinaciones y tensiones,
señales electromagnéticas, fenómenos hidrológicos y emisiones químicas (Scholz, 2002;
Turcotte, 1991), limitamos el análisis a las técnicas predominantes en la predicción
basadas en la seismicidad activamente investigada en los últimos 10 años.
Algunos métodos no analizados aquí incluyen técnicas de predicción asociadas con
interacciones de terremotos como las precursoras a los cambios de velocidad sísmica (por
ejemplo, Crampin and Gao, 2010) o estudios de transferencias de tensión (ver King et al.,
1994; Stein, 1999; y otros).
Aquí se revisa el estado actual de las metodologías de predicción basados en sismicidad
y el progreso realizado en el campo desde el debate de la naturaleza de 1999.
Para no alargar este trabajo en demasía, se limitará el análisis a las metodologías que
dependen del catálogo instrumental para su fuente de datos, el cual intenta producir
predicciones que son limitadas en tiempo y espacio de alguna manera cuantificable.
Como resultado, estos métodos principalmente producen predicciones a medio plazo, en
el sentido de años, aunque se incluye un pequeño subconjunto que se basa en estadísticas
de réplicas para generar predicciones a corto plazo del orden de días. Existen Debates
importantes en otra parte del estándar apropiado para suministrar una previsión de
terremotos comprobable (Jackson and Kagan, 2006; Jordan, 2006), así como la eficacia
de varias metodologías de pruebas de predicciones y su evaluación (por ejemplo, Field,
2007; Gerstenbergerand Rhoades, 2010; Schorlemmer et al., 2007; Vere-Jones, 1995;
Zechar, et al., 2010).
Si bien no hay ningún intento aquí para comprobar la fiabilidad de estas técnicas de
predicción entre ellas o contra una hipótesis nula en particular con estadísticas rigurosas,
en algunos casos se hacen intentos para comparar ya sea una hipótesis nula de Poisson o
una hipótesis nula que incluya la agrupación espacial y temporal como en el caso del
modelo de predicción de la intensidad relativa (RI del inglés relative intensity) (Holliday
et al., 2005) o el modelo de ETAS (por ejemplo Vere-Jones, 1995). Se discutirá
brevemente dichos esfuerzos o la falta de estos, particularmente en aquellos caso donde
el método no ha sido presentado formalmente para evaluaciones independientes.
Se han separado los métodos discutidos aquí en dos categorías diferentes, aunque hay
algunos solapamientos inevitables. Este trabajo comienza con una revisión del conjunto
de metodologías de predicción basadas en sismicidad, cada una asumiendo un mecanismo
físico en particular, que está asociado con la generación de grandes terremotos y sus
precursores y realiza un análisis detallado en el catálogo instrumental con el objetivo de
13
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
aislar dichos precursores. Se designan estos "modelos de proceso físicos". En este
subconjunto también se incluyen dos técnicas que caen ligeramente fuera de los
parámetros descritos anteriormente, la hipótesis de terremotos característica y la hipótesis
de liberación del momento acelerado (ARM del inglés accelerated moment release).
Si bien ambas usan un subconjunto relativamente pequeño de grandes eventos y no están
formulados de manera óptima para producir predicciones limitadas temporal y
espacialmente, su innegable impacto en la comunidad de predicción de terremotos obliga
a su inclusión aquí.
En la sección 2.4 se detalla la evolución y el estado actual de los modelos sísmicos
suavizados. Estos modelos principalmente se aplican a series de técnicas de filtrado,
normalmente basados en conocimientos o supuestos sobre estadísticas de terremotos o en
datos del catálogo sísmico con el objetivo de predecir en escalas de tiempo pequeñas y
medianas. Se concluye con un corto debate sobre las limitaciones y futuras perspectivas
de las herramientas de predicción basadas en la sismicidad.
2.3. Modelos de procesos físicos
Los modelos de procesos físicos son aquellos en los que el proceso preliminar se basa en
uno o más mecanismos o fenómenos físicos asociados con la generación de grandes
eventos. Un análisis detallado, normalmente pero no siempre estadístico, se lleva a cabo
en la sismicidad instrumental con el fin de aislar estos precursores.
Estas técnicas están basadas en las suposiciones de que la sismicidad actúa como un
sensor para el proceso físico subyacente y puede proporcionar información sobre la
naturaleza espacial y temporal del proceso. Cabe señalar que si bien la clasificación de
una fuente física y potencialmente verificable para el proceso de generación de un
terremoto es una característica atractiva de estas metodologías, diferenciar entre la fuente
y las variaciones sutiles de los fenómenos sísmicos es difícil. Como resultado, muchas de
estas técnicas se basan en reconocimiento de patrones o en metodologías estadísticas para
aislar la señal espacio-temporal. Una comprensión completa de sus éxitos y fracasos
relativos es a menudo oscurecida por la complicada naturaleza del análisis, las hipótesis
de simplificación del modelo físico y la heterogeneidad que existe en el mundo real.
Se discutirá estos modelos de proceso físicos que han tenido los mayores impactos en la
materia y son parte de las investigaciones sobre predicción actuales que emplean
catálogos de alta calidad de regiones sísmicas activas.
2.3.1. Liberación del momento de aceleración (AMR)
Las activaciones sísmicas precursoras, o también llamada actividad de sismos iniciales,
han sido observadas antes de un serie de grandes eventos por todo el mundo (Bakun et
al., 2005;Ellsworth et al., 1981; Jones and Molnar, 1979; Jordan and Jones, 2010;
Rikitake, 1976; Sykes and Jaumé, 1990). El método aplicado más extendido para analizar
estos aumentos de precursores en la sismicidad son conocidos como análisis de tiempo
hasta el fallo, liberación del momento sísmico de aceleración (ASMR del inglés
14
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
accelerating seismic moment release) o liberación del momento de aceleración (AMR del
inglés accelerating moment release) (Ben-Zion and Lyakhovsky, 2002;Bowman and
King, 2001; Bowman et al., 1998; Brehm and Braile, 1998; Bufe and Varnes, 1993; Jaumé
and Sykes, 1999; Mignan, 2008; Robinson, 2000; Turcotte et al., 2003; entre otros).Si
bien, en general, el ARM se encuentra fuera del alcance general de esta revisión debido
a que usa sólo una fracción relativamente pequeña del catálogo instrumental en sus
análisis, y su periodo de tiempo previsto está definido pobremente y normalmente a largo
plazo, es incluido aquí debido a la importante influencia que ha tenido en la disciplina así
como su potencial para la incorporación en metodologías de predicción en curso.
2.3.2. Terremotos característicos
A pesar de que la hipótesis de terremotos característico también se encuentra fuera de los
parámetros de estudio de esta revisión, como se ha resaltado antes, su amplio impacto de
propagación en la comunidad de predicción basado en sismicidad y los modelos de riesgo
en curso sobre los últimos 20 años merecen que se incluya aquí.
La duración de los terremotos característicos fue acuñada por Schwartz et al. (1981) y
detallado en Schwartz and Coppersmith (1984), pero el concepto es una extensión de los
primeros trabajos de Reid (1910). Como se ha señalado en la anterior sección, la teoría
de rebote elástico plantea la hipótesis de que un gran terremoto libera la mayoría de su
tensión acumulada en un segmento de una falla dada y que el siguiente seísmo ocurre
después de que la tensión se acumule hasta que es restaurada a un nivel que da como
resultado una ruptura de nuevo. Aquí, el modelo de terremotos característico supone que
las fallas tienden a generar seísmos del mismo tamaño sobre un rango muy estrecho de
magnitudes en las zonas de ruptura o segmentos que son similares en localización y
extensión espacial (Ellsworth and Cole, 1997; Parsons and Geist, 2009; Schwartz and
Coppersmith, 1984; Schwartz et al., 1981; Wesnousky, 1994). La hipótesis conduce a la
predicción de eventos específicos con un tamaño de dimensión de ruptura similar a los
terremotos más grandes (magnitudes entre 6.5 y 9). El modelo es atractivo porque ajusta
observaciones históricas y empíricas en los niveles más básicos, por ejemplo, los grandes
terremotos tienden a ocurrir donde han ocurrido en el pasado (Allen, 1968; Davison and
Scholz, 1985; Frankel et al., 2002; Kafka, 2002; Petersen et al., 2007). De nuevo, esto
método particular difiere de los principales métodos discutidos en otra parte en este
artículo en el que no se utilizan catálogos sísmicos recientes, incluyendo los eventos de
tamaño pequeño-mediano, para cuantificar peligros de sismicidad a medio plazo. En vez
de eso, se basa en eventos históricos de magnitudes entre 5 a 6 y superiores, y el evento
más grande desde los estudios paleosísmicos (Wesnousky, 1994). Los estudios
paleosísmicos (Anderson et al., 1989; Arrowsmith et al., 1997; Biasi and Weldon, 2006;
Biasi et al., 2002; Grant and Shearer, 2004; Grant and Sieh, 1994; Lienkaemper, 2001;
Lienkaemper and Prescott, 1989; Matsu'ura and Kase, 2010; Pantosti et al., 2008;
Rockwell et al., 2003; Sieh, 1984; Sieh et al., 1989;Weldon et al., 2004, entre otros)
proporcionan información detallada del desplazamiento, área de ruptura e intervalos de
recurrencia para la inclusión en el modelo de terremotos característico (Parsons and Geist,
2009; Schwartz and Coppersmith, 1984; Wallace, 1970; Wesnousky, 1994).
15
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2.3.3. Variaciones en el valor b
Debido a la relevancia que este valor tiene para el desarrollo del algoritmo propuesto en
este Trabajo Fin de Grado, se hará un poco más de hincapié en esta sección.
Variaciones en el valor b, o pendiente de la relación de distribución de magnitud y
frecuencia GR para terremotos, han sido estudiadas intensamente a lo largo de los últimos
20 años (Cao et al., 1996; Frohlich and Davis, 1993; Gerstenberger et al., 2001; Gutenberg
and Richter, 1944; Imoto, 1991; Imoto et al., 1990; Ogata and Katsura, 1993;
Schorlemmer et al., 2004a; Wiemer and Benoit, 1996; Wiemer and Schorlemmer, 2007;
Wiemer andWyss, 1997, 2002;Wiemer et al., 1998;Wyss andWiemer, 2000 entre otros)
Para una revisión más completa de los recientes investigaciones en la variaciones del
valor b, ver Wiemer andWyss (2002). En general, este trabajo demuestra que el valor b
es altamente heterogéneo en el espacio y en el tiempo y en una amplia variedad de escalas
(Schorlemmer etal., 2004a; Wiemer and Schorlemmer, 2007; Wiemer and Wyss, 2002).
Estas variaciones tienen importantes implicaciones para peligros sísmicos porque las
valoraciones de peligro sísmico probabilístico regional (PSHA del inglés probabilistic
seismic hazard assessment) son realizadas comúnmente usando la distribución de
frecuencia-magnitud de GR, particularmente en áreas de sismicidad dispersa (Field,
2007;Wiemer and Schorlemmer, 2007;Wiemer et al., 2009). Sin embargo, el principal
objetivo de este estudio será las implicaciones de cambios en el valor b, que están
asociados potencialmente con futuros grandes eventos, y la investigación asociada en la
predicción del valor b.
Algunos trabajos recientes basados en valores b regionales han dado como resultado dos
importantes conclusiones. La primera, que el valor de b varía con el mecanismo de falla.
El valor b para eventos de empuje es más pequeño (~ 0,7) mientras que la de los eventos
de desgarre es intermedia (~ 0,9) y es mayor para eventos normales (~ 1.1). Esta relación
es inversamente proporcional a la tensión media en cada régimen (Schorlemmer et al.,
2005; Gulia and Wiemer, 2010)confirmó este resultado para la sismicidad regional en
Italia. En segundo lugar, investigaciones relacionadas sugieren que los parches
bloqueados en fallas, o asperezas, se caracterizan por valores de b bajos, mientras que las
fallas de arrastre tienen mayores valores de b (Schorlemmer et al., 2004b; Wiemer and
Wyss, 1994, 1997, 2002). En su conjunto, esto sugiere que el cambio en el valor b puede
ser usado como un sensor de tensión, localizando áreas de acumulación de tensión grande
o baja, particularmente hacia el fin del ciclo sísmico, y cuantificable en un modelo de
predicción de terremotos regional (Gulia and Wiemer, 2010;Latchman et al., 2008;
Schorlemmer et al., 2005).Esta hipótesis es apoyada por los resultados en laboratorio para
emisiones acústicas. Estas mostraron que el valor de b es sensible tanto a la
heterogeneidad de la tensión (Scholz, 1968) como a la del material (Mogi, 1967) en
primera instancia, y a la intensidad de la tensión normalizada por la resistencia a la
fractura en segunda instancia (Sammonds et al., 1992). La intensidad de la tensión es
proporcional a la tensión efectiva (Sammonds et al., 1992) y la raíz cuadrada de la
longitud de formar un núcleo (nucleating) de la fractura, de tal manera que los materiales
heterogéneos tienden a estar juntos, confirmando la relación entre tensión, heterogeneidad
y el valor b.
16
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Muchas de las referencias anteriores debaten incrementos en el riesgo sísmico asociado
con valores de b bajos (por ejemplo Westerhaus et al., 2002) y formulan mapas de
variaciones del valor b para grandes eventos. Sin embargo, algunos trabajos recientes se
han centrado en formular predicciones probabilísticas predictivas usando variaciones del
valor b. Schorlemmer et al. (2005) estudió las variaciones del valor b a lo largo del
segmento de Parkfield de San Andrés, y produjo retrospectiva de periodos de 5 años por
la extrapolación de la distribución GR con valores de b variantes espacialmente sobre
pequeños volúmenes. Wiemer and Schorlemmer (2007) desarrolló el modelo de
probabilidad basado en aspereza (ALM del inglés asperity-based likelihood model) para
California y se lo pasó a la web de pruebas de predicciones RELM. En esta versión,
analizaban los catálogos sísmicos para California para la magnitud mínima de integridad
y una profundidad de 30 km. Debido a que los cálculos del valor b deben alcanzar de 5 a
20 km, dependiendo de la velocidad de actividad, se calculan dos modelos. El primero
es un modelo local, y el segundo es un modelo regional. El ajuste del valor b es calculado
desde una puntuación probable (Aki, 1965) y entonces los dos modelos son comparados
con el Criterio de información Akaike corregido, AIC (Akaike, 1974; Burnham and
Anderson, 2002; Kenneth et al., 2002). La puntuación más baja de AIC es el mejor
modelo. Se realiza una búsqueda variando el tamaño de regiones locales y comparándolas
con el valor AIC regional. La localización con los radios más pequeños donde el modelo
del valor b local puntúa un AIC más bajo es usado para computar la distribución para la
sismicidad en la región. Una vez que una distribución de magnitud-frecuencia es
determinada para cada localización, la tasa anual de eventos en cada magnitud encontrada
de 5.0≤M≤9.0 puede ser calculada para la predicción (Wiemer and Schorlemmer, 2007).
Gulia et al., 2010 proporcionó una predicción ALM para Italia en CSEP
(CSEP,www.cseptesting.org). La metodología fue similar a aquella de Wiemer and
Schorlemmer (2007), más arriba, excepto que la magnitud de valores de integridad fueron
arreglados usando un núcleo Gaussiano. Además, dos predicciones modificadas fueron
creados desde ALM: en el modelo ALM.IT, el catálogo de entrada es desagrupado para
M≥2 y un filtro Gaussiano es aplicado en una base de nodo antes del cálculo del valor de
a en la distribución magnitud-frecuencia.
En la versión HALM, el modelo fue modificado de modo que la región fue fraccionada
en ocho subregiones sobre provincias tectónicas, y esto fue usado para el modelo global,
dependiendo de la localización de cada nodo. Las investigaciones a largo plazo en las
estadísticas del valor b proporcionan fuertes evidencias de que ocurren variaciones
persistentes que están correlacionadas con el campo de tensión heterogéneo en zonas de
fallas principales. Los continuos esfuerzos han dado como resultado predicciones
testeables para ocurrencias sísmicas y proporcionan evidencia tranquilizadora de que los
precursores de sismicidad pueden ser traducidos a mapas de peligro dependientes del
tiempo.
2.3.4. La familia de algoritmos M8
El algoritmo M8 (Keilis-Borok and Kossobokov, 1990; Keilis-Borok et al., 1990;
Kossobokov, 2006a,b; Kossobokov et al., 1999, 2000, 2002; Latoussakis and
Kossobokov, 1990; Peresan et al., 2005 fue desarrollado aproximadamente hace 30 años
con el fin de localizar regiones de mayor probabilidad de ocurrencia de terremoto en el
17
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
espacio y el tiempo. Modificado en los años siguientes, el algoritmo actual calcula siete
series de tiempo, desde pequeños terremotos, ~ M4, para una región especifica de
investigación que es una función del tamaño del terremoto que va a ser pronosticado.
Los valores de estas series de tiempo son usados para tomar una decisión de si invocar
un "tiempo de probabilidad aumentada" o TIP (del inglés time of increased probability),
para un gran evento de aproximadamente M6,5-8 (Kossobokov et al., 1999).
2.3.5. RTL
El RTL es un método estadístico en el cual tres parámetros relacionados con terremotos
(tiempo, lugar y magnitud) son incluidos en un coeficiente ponderado (Sobolev and
Tyupkin, 1997, 1999). El algoritmo combina la distancia, tiempo y longitud de ruptura
de sismicidad agrupada en una medida combinada. La designación de Region-Time-
Lenght (RTL) surge por la región (en inglés Region) (distancia al epicentro), el intervalo
de tiempo (en inglés Time) y la longitud (en inglés Length) (tamaño de ruptura, por
ejemplo la magnitud). El algoritmo RTL es un método estadístico para investigar cambios
de sismicidad previos a grandes eventos. Estos cambios ocurren sobre regiones del orden
de 100 km, y unos pocos años antes de grandes eventos (Mignan and Di Giovambattista,
2008).
2.3.6. LURR
La tasa de respuesta de carga y descarga (LURR del inglés Load-Unload Response
Ration) originalmente fue propuesta para medir el cambio energético sísmico en los
meses y años anteriores a un gran evento de modo que podría ser usado como un
vaticinador de terremotos (Yin et al., 1995).
La idea física es que, cuando la corteza está cercana a la inestabilidad, más energía es
liberada en el periodo de carga que en el periodo de descarga. Si uno puede medir la tasa
entre periodos conocidos de carga y descarga, entonces puede ser derivada una medida
que determine con precisión tiempos y lugares de alta liberación de energía como un
precursor potencial. Aunque la fuerza de marea de capacidad de desencadenante de
terremoto sigue siendo controvertido, estudios en años recientes han sugerido que es un
efecto medible, al menos en ciertas regiones. Ciertamente, se espera que tensiones de
marea afecten a grandes cortezas terrestre (Cochran et al., 2004; Lockner and Beeler,
1999; Rydelek et al., 1992; Smith and Sammis, 2004; Tanaka, 2010; Tanaka et al., 2002;
Vidale et al., 1998, y otros). En el caso de LURR, la naturaleza cíclica de las tensiones de
marea se plantea como hipótesis para imponer carga y descarga en la corteza que
corresponde con valores positivos o negativos de la tensión de fallo Coulomb de marea
(CFS del inglés Coulomb Faiulure Stresses). En LURR periodos de carga y descarga son
identificados basados en la marea terrestre induciendo perturbaciones en el CFS de
manera óptima en fallas orientadas. (Feng et al., 2008; Mora et al., 2002; Peng et al.,
2006; Wang et al., 2004a,b; Yin and Mora, 2006; Yin et al., 1995, 2000, 2006, 2008a,b,
2010; Yu and Zhu, 2010; Yu et al., 2006; Zhang et al., 2004, 2006, 2010).
18
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2.3.7. Índice informático de patrón
El índice PI (del inglés Pattern Informatics) es un método analítico para cuantificar los
cambios de tasa de sismicidad espacio-temporal en sismicidad histórica (Holliday et al.,
2006a; Rundle et al., 2002; Tiampo et al., 2002). Prácticamente, el método es una medida
objetiva en el cambio local en sismicidad relativo a la sismicidad de fondo a largo plazo
que ha sido usada para predecir grandes terremotos. El método identifica patrones
espacio-temporales de activación anómala o inactividad que sirve como proxys para
cambios en la tensión subyacente que puede preceder a grandes terremotos. Como
resultado, estas anomalías pueden estar relacionadas con la localización de grandes
terremotos que ocurren en los años siguientes a su formación (Tiampo et al., 2002,
2006a). De nuevo, la teoría sugiere que estas estructuras sísmicas están relacionadas con
cambios en los niveles de tensión subyacente (Dieterich, 1994; Dieterich et al., 2002;
Tiampo et al., 2006a; Toda et al., 2002).
El índice PI es calculado usando datos de catálogos instrumentales de áreas activas
sísmicamente. Debido a que la relación magnitud-frecuencia GR implica que, para un
volumen espacial V suficientemente grande y para un intervalo de tiempo suficientemente
largo, la frecuencia de terremotos sea constante para magnitudes m≥mc (Richter, 1958;
Turcotte, 1997), se calcula sobre una gran región con una tasa de fondo constante, o el
valor a de la relación GR. Mc es la magnitud de corte denotando la magnitud mínima de
integridad. Los datos sísmicos son mapeados por ubicación en recuadros. En California,
un tamaño de recuadro de la cuadrícula de 0,1º en latitud y longitud tuvo éxito, pero esto
podría variar con las áreas tectónicas. Las series de tiempo son creadas para cada una de
estas ubicaciones mapeadas. Una casilla de tiempo individual cuantifica el número total
de eventos en cada ubicación que ocurrió en ese intervalo de tiempo. Cada localización
se denota con xi, donde i oscila desde 1 hasta N localizaciones totales. La tasa de actividad
sísmica observada ψobs(xi,t) es el número de terremotos por unidad de tiempo, de
cualquier tamaño, en la casilla xi en el tiempo t.
19
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2.4. Modelos de sismicidad arreglados
Los modelos de sismicidad arreglados son una clase más general de modelos de
predicción basados en sismicidad, los cuales definen las importantes características
físicas espacio-temporales de los procesos de terremotos, caracterizándose estas de una
manera matemática y/o probabilística, y calibrando el modelo basado en datos disponibles
de los catálogos sísmicos para regiones tectónicas particulares.
Originalmente desarrollado por Frankel (1995) el enfoque sísmico arreglado ha sido
extendido a muchos diferentes algoritmos y regiones por todo el mundo (ver, por ejemplo,
Helmstetter et al., 2006, 2007; Kafka, 2002; Kagan and Jackson, 1994, 2000; Kagan et
al., 2007; Nanjo, 2010; Rhoades and Evison, 2004; Stirling et al., 2002a, entre otros).
Aunque el algoritmo arreglado particular varía, el uso de una función Gaussiana
bidimensional en la cual la distancia es específica para cada región tectónica es todavía
la técnica implementada más extendida (Frankel et al., 1996; Petersen et al., 2008). Los
modelos arreglados pueden ser formulados para contar la agrupación que existe en la
sismicidad natural como resultado de las correlaciones espaciales y temporales entre
eventos que surgen debido a las interacciones de transferencia de tensión (King et al.,
1994). Además, a pesar de que los datos de catálogo de terremotos actuales a menudo son
limitados por los cortos periodos de tiempo disponibles para los datos registrados,
particularmente en magnitudes pequeñas, el arreglado espacial puede compensar esta
falta de datos así como para errores en los datos, tales como los de magnitud y localización
(Nanjo, 2010; Werner and Sornette, 2008). A lo largo de los últimos 10 años, se han hecho
significativos progresos en el desarrollo de métodos para caracterizar los procesos físicos
relacionados con la generación sísmica en esta clase de modelos. Señalar que un gran
número de técnicas han sido adaptadas a predicciones a corto plazo del orden de días, ya
sea como complemento o en lugar de predicciones a medio plazo.
Los modelos de sismicidad arreglados son intuitivamente atractivos porque concentran
peligros sísmicos en áreas que han tenido terremotos en el pasado, una propiedad de la
sismicidad que ha sido justificada por un gran número de investigadores (ver por ejemplo
Allen, 1968; Davison and Scholz, 1985; Frankel et al., 2002; Kafka, 2002; Petersen et al.,
2007). A pesar de que muchas versiones pueden ser bastante complicadas, la formulación
básica es relativamente sencilla y los resultados pueden ser fácilmente probados contra
estadísticas de catálogo instrumentales. Virtualmente todos los métodos pueden ser
comparados con hipótesis nulas tanto aleatorias como agrupadas de una manera
relativamente sencilla. Muchas también pueden evolucionar con el tiempo,
potencialmente monitorizando las dinámicas del sistema de fallas. Predicciones de
modelos de peligro proporcional (PHM del inglés proportional hazard model), por
ejemplo, son recalculados en la actualidad tanto en intervalos regulares como en grandes
eventos que se producen que modifican la naturaleza espacio-temporal en curso de la
sismicidad en la región (Faenza and Marzocchi, 2010). Sin embargo, errores o falta de
información en los catálogos instrumentales pueden dar como resultado grandes errores
en la predicción resultante, particularmente para grandes eventos que tienen escasas
estadísticas y aquellas áreas que han estado inactivas en los últimos tiempos (Werner and
Sornette, 2008).
20
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Aquí discutimos esos métodos, los cuales han tenido mayor impacto en el ámbito y son
un área en curso de investigación. En particular, un gran número de metodologías de
reconocimiento de patrones, aunque podrían mostrar una promesa significativa, son
omitidas porque son difíciles de implementar o no son aplicadas extensamente hasta la
fecha. Esto incluye técnicas de redes neuronales (Adeli and Panakkat, 2009; Alves, 2006;
Madahizadeh and Allamehzadeh, 2009; Sri Lakshmi and Tiwari, 2009), algoritmos de
reconocimiento de patrones tales como agrupamientos k-means (Morales-Esteban et al.,
2010), métodos de modelos de Markov ocultos (Ebel et al., 2007), y simulaciones de
autómatas celulares (Jiménez et al., 2008). La siguiente metodología lleva a cabo
investigaciones de predicción en curso en regiones sísmicas activas y con catálogos de
alta calidad.
2.4.1. EEPAS
El método conocido como “cada terremoto es un precursor acorde con la escala” (EEPAS
del inglés Every Earthquake is a Precursor According to Scale) está basado en el
fenómeno de incremento de escala precursora, donde incrementos sísmicos menores
ocurren antes y en la misma región que grandes eventos de la misma forma que las
réplicas. Como resultado, es tanto un modelo sísmico arreglado como basado en física,
pero es clasificado aquí como el segundo, porque la predicción generada está
intrínsecamente vinculada con las distribuciones asociadas con cada parámetro modelado.
Originalmente formulado en base a observaciones de nubes precursoras (Evison and
Rhoades, 1997, 1999), la idea fue extendida hasta la clase general de sismos previos para
identificar precursores localizados (Evison and Rhoades, 1999, 2002, 2004). El modelo
estocástico EEPAS fue formulado basándose en la simple idea de que cada terremoto es
un precursor, y su entrada en el modelo es escalado con su magnitud (Rhoades, 2010;
Rhoades and Evison, 2004).
2.4.2. Sismicidad arreglada dependiente del tiempo
En 1.994, Kagan y Jackson describieron por primera vez un método para desarrollar
modelos sísmicos arreglados extrapolando la información de catálogos sísmicos en
predicciones probabilísticas. Efectivamente, este es una predicción independiente del
tiempo en la cual las tasas de catálogos sísmicos históricos e instrumentales son
espacialmente prorrateadas para periodos de tiempo particulares. En los años siguientes,
este método particular ha sido aplicado en el noroeste y sudeste del pacífico (Jackson and
Kagan, 1999; Kagan and Jackson, 2000), California (Helmstetter et al., 2006; Kagan et
al., 2007), and Italy (Werner et al., 2010).
Aquí la tasa de densidad de terremoto, Λ(θ,ɸ,m,t), la probabilidad por unidad de área,
tiempo y magnitud, es asumido como constante en tiempo y es estimado como la suma
de contribuciones de todos los eventos a partir de una magnitud de corte prescrita. Como
en el caso con los modelos sísmicos más arreglados, pueden ser aplicados para cualquier
mínima magnitud de corte.
21
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2.4.3. Metodologías ETAS
La hipótesis de secuencia de réplica de tipo epidémico original (ETAS del inglés
epidemic-type aftershock sequence) fue formulada por Ogata (1985a,b, 1987, 1988,
1989). No sólo es un modelo de secuencias de réplica, ETAS es fundamentalmente un
modelo de sismicidad interactiva desencadenante en la cual todos los eventos tienen roles
idénticos en el proceso de activación. De nuevo, es tanto un modelo basado en física como
un modelo de sismicidad arreglado, pero es clasificado aquí como lo segundo porque las
predicciones están intrínsecamente conectadas a las distribuciones asociadas con cada
parámetro. En este proceso cada terremoto se considera como desencadenante por eventos
anteriores y como un provocador potencial para seísmos subsecuentes, por ejemplo, cada
evento es una réplica potencial, sismo principal o sismo previo, con sus propias
consecuencias de réplica. Para sismicidad general un plazo de fondo con un componente
aleatorio es añadido a la formulación. En los años siguientes, el modelo ha sido usado en
muchos estudios para describir la distribución espacio-temporal y características de la
sismicidad actual Console and Murru, 2001; Console et al., 2003; Helmstetter and
Sornette, 2002, 2003a,b; Ma and Zhuang, 2001; Ogata, 1988, 1998, 1999, 2005; Ogata
and Zhuang, 2006; Saichev and Sornette, 2006; Vere-Jones, 2006; Zhuang et al., 2004,
2005 entre otros). Para una revisión más extensa de los primeros años de desarrollo y
aplicación de ETAS, ver Ogata (1999) and Helmstetter and Sornette (2002).
2.4.4. Método de intensidad relativa
El modelo de predicción RI (del inglés Relative Intensity) fue propuesto por primera vez
por Holliday et al. (2005), principalmente como una hipótesis nula mejor para testing
predictivo que un modelo de sismicidad no agrupado aleatorio. La idea es usar la tasa de
ocurrencia de terremotos en el pasado con el objetivo de predecir la localización de
futuros grandes seísmos, en el que futuros grandes eventos están considerados más
probable donde actividad sísmica mayor ocurrió en el pasado
El algoritmo RI es el más simple de los modelos de sismicidad arreglados y fue
originalmente formulado como una predicción binaria, aunque ha sido modificada de
diversas formas desde aquella vez. Inicialmente, la región estudiada es representada con
casillas cuadradas.
2.4.5. Triple S
El modelo de sismicidad suavizado simple (TripleS del inglés simple smoothed seismicity
model), fue desarrollado como una prueba de un modelo muy simple para predicción de
terremotos con un número mínimo de parámetros. En su forma más básica, aplica un filtro
suavizado Gaussiano a un conjunto de datos del catálogo y optimiza un sólo parámetro,
σ, el cual controla la extensión espacial de arreglo, contra predicciones retrospectivas
(Zechar and Jordan, 2010).
22
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
El método sísmico arreglado más simple es la técnica de predicción RI, como se detalla
anteriormente en este trabajo. En ese modelo, el arreglo es anisótropo y uniforme. TripleS
en vez de eso aplica un arreglo Gaussiano isotrópico bidimensional que usa una función
de origen continua que permitía una región más amplia de influencia.
2.4.6. Agrupamiento de terremotos con tasa de llegada no de Poisson
Como se destacó anteriormente, la mayoría de modelos de sismicidad alisados se basan
en la idea de que los terremotos tienden a ocurrir en el futuro donde han ocurrido ya en el
pasado (Allen, 1968; Davison and Scholz, 1985; Frankel et al., 2002; Kafka, 2002;
Petersen et al., 2007).
En el caso del modelo de agrupación de terremotos no de Poisson a corto plazo, un modelo
de predicción diario presentado al proyecto RELM por Ebel et al. (2007), se extiende la
suposición de que las propiedades estadísticas medias de las ocurrencias espaciales y
temporales de terremotos con M≥4.0 durante el periodo de predicción será la de los
últimos 70 o más años, incluyendo réplicas y sismos previos. La formulación espacial
inicial está basada en esta premisa.
Debido a que este es principalmente un algoritmo de predicción de réplicas, la tasa de
ocurrencia media es modelada usando la ley de Omori (Utsu et al., 1995), formando la
base para predecir actividad cerca del epicentro de un gran terremoto siguiendo
inmediatamente ese evento. Si un seísmo de M≥4.0 ocurre en algún lugar de la región, un
círculo de radio R es dibujado alrededor del epicentro, como definen Gardner and
Knopoff (1974). En el caso de California, la relación de Reasenberg and Jones (1989)
para la ley de Omori fue elegida para calcular la tasa esperada de terremotos de M≥4.0.
Además, la distribución de Poisson de tiempo entre los eventos es la distribución
estadística desde la cual son derivados predicciones a corto plazo de nuevos sismos
principales. La predicción asume que todos los eventos de magnitud más pequeña que el
sismo principal son réplicas. Si un nuevo evento tiene una magnitud mayor que el primer
evento, la predicción asume que el primer terremoto fue un sismo anterior. Cuando la tasa
de réplica/sismo previo predicha cae por debajo de la tasa de sismo principal de fondo
para cualquier localización dada, entonces la tasa del sismo principal de fondo es
sustituida. Finalmente, para esas localizaciones que están fuera de las zonas de réplica, la
tasa media de eventos M≥4 para un catálogo de terremoto desagrupado regional es
calculado y esta tasa media del sismo principal es distribuida a lo largo de toda el área
proporcionalmente a su distribución pasada (Ebel et al., 2007).
Ebel et al. (2007) detalla las varias elecciones de predicción para cualquier día dado y
como son combinados en predicciones a corto plazo. Destacar de nuevo que uno de los
beneficios de un mapa de sismicidad arreglado es que la discretización puede ser usada
para probar las limitaciones del algoritmo y los datos disponibles y, al menos en principio,
los errores asociados con ambos pueden también ser evaluados.
23
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2.4.7. Modelos potenciales de terremoto sísmico
El modelo potencial de terremoto sísmico, como propuso Ward (2007), es otra versión de
un modelo de sismicidad arreglado donde la teoría principal es que los terremotos son
probables de ocurrir en el futuro en la misma localización en los que ocurrieron en el
pasado. Las actuales localizaciones y dependencias de tiempo del evento son construidos
desde este principio basado en alguna combinación de las leyes aceptadas generalmente
de sismicidad, la distribución de magnitud frecuencia GR (Gutenberg and Richter, 1944),
la ley modificada de Omori (Utsu et al., 1995), y la ley de Bath (Båth, 1965). De nuevo
el requerimiento básico es un catálogo instrumental de localizaciones de terremoto,
fechas, y magnitudes y la magnitud mínima estimada de integridad, mc.
2.4.8. STEP
En 2.005, el modelo de probabilidad de terremotos a corto plazo (STEP del inglés short-
term earthquake probability) fue inaugurado en http://pasadena.wr.usgs.gov/step
(Gerstenberger et al.,2005). STEP es otro método que emplea una ley de sismicidad
universal (en este caso la ley de réplicas modificada de Omori) (Utsu et al., 1995) con
datos históricos e instrumentales con el objetivo de crear una predicción dependiente del
tiempo. Debido a que el modelo STEP está basado en la ley de Omori es una predicción
a corto plazo que produce predicciones en una escala de tiempo de días y cuya señal
principal está relacionada con secuencias de réplica, al igual que el modelo de agrupación
no de Poisson de Ebel et al. (2007).
El modelo STEP combina un modelo de ocurrencia independiente del tiempo de datos de
falla tectónica con modelos de agrupación estocásticos cuyos parámetros están derivados
de datos de catálogo recientes y a largo plazo. El modelo independiente del tiempo se
elabora de los mapas de riesgo a largo plazo de la U.S. Geological Survey de 1.996
(USGS) (Frankel et al., 1997). Tres modelos estocásticos son calculados para
incorporarse en el modelo de fondo: un modelo de agrupamiento genérico, un modelo
específico de secuencia, y un modelo heterogéneo espacial (Gerstenberger et al., 2005).
2.4.9. HAZGRIDX
HAZGRIDX, como propuso Akinci (2010), es otra versión de un modelo sísmico
arreglado donde el alisamiento es gobernado por la relación magnitud-frecuencia GR.
Comenzando con un catálogo sísmico para Italia el cual esta desagrupado, la magnitud
mínima de integridad es determinada. La sismicidad es entonces arreglada usando el
método sísmico alisado espacialmente (Frankel, 1995) y es calculada la siguiente
ecuación para la tasa arreglada de eventos en cada celda y es normalizada por la
sismicidad regional total usando la siguiente ecuación:
ñ =∑ 𝑛𝑗𝑒−Δ𝑔/𝑐2
𝑗:Δ𝑔≤3𝑐
∑ 𝑒−Δ𝑔/𝑐2𝑗:Δ𝑔≤3𝑐
(2.4.21)
24
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Donde Δij es la distancia entre el centrado de las celdas i y j de la cuadrícula y el parámetro
c la distancia de correlación. La suma es tomada sobre todas las celdas j dentro de una
distancia de 3c de la celda i.
Una predicción CSEP a cinco años para Italia fue creada por el arreglado sobre una
distancia de correlación, c, de 15 km y calculando tasas de actividad para cada casilla que
cumplía la relación de magnitud-frecuencia GR regional. Un modelo de Poisson
independiente del tiempo es empleado para calcular la tasa recurrente para cada evento.
Akinci (2010) destacó que, no sólo un catálogo integro tiene un efecto crucial en la
fiabilidad y la calidad de predicciones basadas en sismicidad potencial, sino que también
es crítico esa estimación exacta del valor b GR. En modelos tales como este, un valor b
bajo incrementará el valor de riesgo, mientras que una alta lo reduce.
Es necesario la adquisición de datos sísmicos de alta calidad sobre periodos de tiempo
largos con el objetivo de estimar con integridad valores b regionales y proporcionar
predicciones sísmicas arregladas más exactas.
2.4.10. Modelo de riesgo proporcional (PHM)
El Modelo de riesgo proporcional (PHM del inglés proportional hazard model) es un
método estadístico no paramétrico multivariante que caracteriza la dependencia temporal
de una función de riesgo que representa la probabilidad condicional instantánea de una
ocurrencia (Cox, 1972; Faenza et al., 2003, 2004; Kalbeisch and Prentice, 1980). El
modelo no asume a priori ninguna distribución estadística de los eventos y puede ser
usado para integrar simultáneamente diferentes tipos de información. En este caso,
permite análisis del proceso de ocurrencia de terremoto sin el requisito de asumir un
modelo tal como la distribución de seísmos característico. Además, permite probar el
impacto en la distribución de eventos de la integración de trozos individuales de
información física y a medida que se integran en el modelo probar su importancia relativa
(Faenza and Marzocchi, 2010).
El PHM fue aplicado en estudios de la distribución espacio temporal de terremotos
destructivos en Italia (Cinti et al., 2004; Faenza and Pierdominici;, 2007; Faenza et al.,
2003), terremotos de tamaño medio en Europa central (Faenza et al., 2009), y grandes
seísmos por todo el mundo (Faenza et al., 2008) la cual mostraba que agrupamientos
temporales de eventos del orden de unos pocos años ocurren como una señal precursora
previa a grandes eventos. Su escala espacial oscila entre decenas a cientos de kilómetros.
25
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2.5. Conclusiones
Los recientes desarrollos en los campos de sismología estadística, en conjunción con la
disponibilidad de gran cantidad de datos sísmicos en pequeñas escalas y avances
computacionales, han mejorado significativamente nuestro entendimiento de los procesos
de terremotos dependientes del tiempo. Como resultado, los últimos diez años han visto
progresos significativos en el campo de la predicción de seísmos basados en sismicidad
a corto y medio plazo. Estas técnicas de predicción basadas en sismicidad pueden ser
diferenciadas de modelos basados en técnicas para identificar procesos físicos
particulares y de aquellos que filtran o arreglan la sismicidad.
Tales filtros están normalmente, aunque no siempre, basados en relaciones sísmicas bien
caracterizadas tales como la ley de Omori modificada. Exploraciones de la principal
diferencia entre estas dos clases de modelos reflejan su mayor fuerza y debilidad.
Mientras los modelos físicos generalmente tienen el potencial de proporcionar más
detalles en espacio y tiempo, la base para sus éxitos y fallos es normalmente oscurecido
por las simple estimaciones del modelo y las complicadas interacciones que existen en
el mundo real.
Por otra parte, mientras que los patrones de predicción y los éxitos o fracasos que resultan
son mejor entendidos en los modelos suavizados, la variación en el patrón espacial
resultante por los diferentes filtros es relativamente pequeña.
El progreso en la precisión y evaluación en las predicciones de terremotos basados en
sismicidad sobre los últimos 10 años ha llegado hasta el consenso general de que
proporcionan los caminos más prometedores para predicciones de terremotos
operacionales viables (ver por ejemplo Jordan and Jones, 2010). Técnicas de evaluación
actuales incluyen tests específicamente formulados para técnicas de predicción binaria,
así como aquellas que automáticamente generan ámbitos probabilísticos, tales como
modelos de sismicidad arreglados (www.cseptesting.org). Además, muchos progresos
han sido hechos en la modificación de un gran número de métodos, tales como M8, para
producir ámbitos de probabilidad. Sin embargo, otro gran número de técnicas no son
evaluadas regularmente, creando una importante y potencial diferencia en nuestra
habilidad de cuantificar la ganancia de probabilidad asociada con esos métodos, pero
también evitando ideas potenciales en el mecanismo y comportamientos que afectan a la
predicción de terremotos.
Aún quedan por hacer trabajos importantes, no solo en la evaluación de varios métodos
ya formulados para pruebas, sino también en determinar cuáles son los periodos de tiempo
de predicción óptimos y las precisiones para varios propósitos de predicción, y que nivel
de ganancia de probabilidad es razonable y probable para las regiones espaciales y
temporales de interés. Está claro que una diferencia existe entre predicciones que rinde
bien en el orden de días a semanas (modelos de predicción de réplicas) y aquellos que
rinden bien sobre periodos de tiempo de cinco a diez años. La pregunta sigue siendo si
predicciones fiables son posibles para periodos de tiempo de uno a dos años. Además ha
habido relativamente pequeña colaboración alrededor de varios métodos que intenta
tomar ventaja de la información científica y practica ganada desde su evaluación en curso.
Acuerdos sobre la hipótesis nula agrupada más aplicable podrían avanzar en este objetivo,
cambiando el fin de comparaciones entre modelos a evaluaciones contra un estándar.
26
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Ambos tipos de predicciones basadas en sismicidad están limitadas por la calidad de los
datos y el relativamente corto periodo de tiempo disponible para el catálogo instrumental,
subrayando la importancia de catálogos instrumentales de buena calidad derivados de
redes sísmicas densas. Errores de falta de información en los catálogos dan como
resultado grandes errores en la predicción resultante, particularmente para grandes
eventos, que tienen escasas estadísticas. Además, a diferencia de algunos modelos físicos,
los modelos sísmicos arreglados no pueden contar para regiones que han estado inactivas
en la historia reciente pero que podrían contener significativos terremotos potenciales en
escalas de tiempo más prolongadas. Quizás tan importante como el pequeño número de
grandes eventos que ocurrirán o bien en una región o por todo el mundo en un periodo
de tiempo próximo de treinta a cincuenta años, mucho menos en cinco o diez años, es
hacer evaluaciones estadísticas definitivas de todas estas técnicas extremadamente difícil
actualmente. Como resultado, estándares para rechazar hipótesis están todavía bajo
discusión. Esto sirve para enfatizar la importancia de entender las varias escalas de tiempo
asociadas con el proceso natural de terremotos y el hecho de que periodos de observación
más prolongados serán necesarios para evaluar apropiadamente la viabilidad y eficacia
de ambos tipos de modelos de predicción.
Un gran número de visiones importantes e interesantes se pueden extraer de una
exploración más minuciosa de las varias técnicas y su implementación.
Primero, muchas técnicas se centran principalmente en fenómenos particulares como
precursores específicos, y sin embargo, a menudo llegan a similares conclusiones con
respecto a la localización y el tiempo que las de eventos particulares. Por ejemplo, un
gran número de estudios identifican escalas de tiempo a corto plazo para activaciones e
inactividades precursoras alternativas del orden de varios años (ver por ejemplo, Evison
and Rhoades, 2002; Huang, 2004; Kossobokov, 2006a, 2006b; Tiampo et al., 2006a,b) .
Es más probable que en el futuro, observaciones más minuciosas y comparaciones de
varias técnicas proporcionen información importante de los procesos subyacentes que
identifican la física asociada.
En segundo lugar, la mayoría de las metodologías actuales se formulan de modo pueden
ser actualizadas para tener en cuenta la naturaleza cambiante del sistema de fallas de
terremotos. El desarrollo de técnicas de predicción de seísmos dependientes del tiempo
es una respuesta al reconocimiento de que el ámbito de tensión de evolución en un sistema
de falla regional es la fuerza motriz detrás de un sistema dinámico, si es lento. Como tal,
la sismicidad de magnitud pequeña y mediana está proporcionando información
importante en la evolución temporal y espacial en el ámbito de tensión local y regional.
Las técnicas de predicción basadas en sismicidad, incluso aquellas que son
independientes del tiempo (por ejemplo, Kagan et al., 2007) permiten actualizaciones
regulares tanto para sus predicciones como para predicciones revisadas después de la
ocurrencia de grandes eventos, teóricamente la captura de la dinámica del sistema.
Trabajos futuros probablemente incluirán análisis detallado de esta evolución temporal y
visiones importantes en la física de sistemas así como mayores avances en predicciones
de terremotos a corto y medio plazo.
27
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
3. Descubrimiento de conocimiento a partir de grandes bases
de datos (KDD)
3.1. Introducción
La revolución de la información global en la sociedad en la que vivimos ha producido
que se generen gran cantidad de datos a gran velocidad, creándose una necesidad de
aumento de las capacidades de almacenamiento que no pueden resolverse por métodos
manuales. En las últimas décadas la principal preocupación se ha centrado en cómo tratar
la información disponible de la forma más rápida y eficiente Se hace entonces necesario
encontrar técnicas y herramientas que ayuden en el análisis de dichas cantidades de datos,
que se encuentran normalmente infrautilizadas, ya que dicho volumen excede nuestra
habilidad para reducir y analizar los datos sin el uso de técnicas de análisis automatizadas.
La minería de datos (o data mining en su terminología inglesa) es una de las técnicas que
más se usan actualmente y que surgió como solución a este problema. Su misión no es
otra que la de analizar la información de las bases de datos. Apoyándose en distintas
disciplinas como la estadística, los sistemas para tomas de decisión o el aprendizaje
automático entre otros, permite extraer patrones, describir tendencias o predecir
comportamientos.
La minería de datos en resumen, no es más que una de las etapas más importantes del
descubrimiento de la información en bases de datos (KDD o Knowdledge discovery in
databases), entendiendo por descubrimiento la existencia de información valiosa
escondida y no conocida anteriormente. Definido en varias fases, este proceso se puede
entender entonces como el proceso completo de extracción de información, que se
encarga así mismo de la preparación de los datos y de la interpretación de los resultados
obtenidos.
En otras palabras, KDD se ha definido como “el proceso no trivial de identificación en
los datos de patrones válidos, nuevos, potencialmente útiles, finalmente comprensibles”
(Fayyad, U. et al., 1996)
El proceso de KDD incorpora distintas técnicas del aprendizaje automático, las bases de
datos, la estadística, la inteligencia artificial así como diversas áreas de la informática y
de la información en general.
Una de las causas que ha hecho que la minería de datos alcance gran popularidad ha sido
la difusión de herramientas y paquetes que implementan estas técnicas, tales como
MicroStrategy, Intelligent Miner de IBM o DM Suite (Darwin) de Oracle, siendo
conocidas como herramientas de Business Intelligence (BI).
Estos paquetes integrados o suites de BI los podemos definir como una colección de
herramientas y técnicas para la gestión de datos, análisis y sistemas de soporte a la
decisión o, de forma más amplia, como la combinación de arquitecturas, bases de datos,
herramientas de análisis, aplicaciones y metodologías para la recopilación,
almacenamiento, análisis, y acceso a los datos para mejorar el rendimiento del negocio y
ayudar a la toma de decisiones estratégicas.
28
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
La diversidad de disciplinas que contribuyen a la minería de datos da lugar a una gran
variedad de sistemas específicos para analizar los tipos de datos que se desean. Teniendo
en cuenta el modelo de datos que generan, los que minan, y la técnica o el tipo de
aplicación, se puede distinguir, citando a Hernández Orallo, (Hernández Orallo. J. (2004))
los siguientes tipos:
1. Tipo de base de dato minada. Partiendo de diferentes modelos de datos, existen
sistemas de minerías de datos relacionados y multidimensionales, entre otros. De
igual forma, teniendo en cuenta los tipos de datos usados se producen sistemas
textuales, multimedia, espaciales o web.
2. Tipo de conocimiento minado. Teniendo en cuenta los niveles de abstracción del
conocimiento minado se distinguen:
Conocimiento generalizado con alto nivel de abstracción.
Conocimiento a nivel primitivo, con filas de datos.
Conocimiento a múltiples niveles, de abstracción.
Además, se debe hacer la distinción entre los sistemas que buscan patrones, es decir,
regularidades, y los que buscan excepciones, irregularidades.
1. Tipo de funcionalidad (clasificación, agrupamiento) y de técnica, es decir,
métodos de análisis de los datos empleados.
2. Tipo de aplicación. En el que distinguimos dos tipos: los de propósito general y
los específicos. Sin pretender ser exhaustivos, se exponen seguidamente algunos
ejemplos de aplicaciones.
Medicina, básicamente para encontrar la probabilidad de una respuesta
satisfactoria a un tratamiento médico o la detección de pacientes con riesgo de
sufrir alguna patología (detección de carcinomas, pólipos...).
Mercadotecnia. Análisis de mercado, identificación de clientes asociados a
determinados productos, evaluaciones de campañas publicitarias,
estimaciones de costes o selección de empleados.
Manufacturas e industria: detección de fallas.
Telecomunicaciones. Determinación de niveles de audiencia, detección de
fraudes, etc.
Finanzas. Análisis de riesgos bancarios, determinación de gasto por parte de
los clientes, inversiones en bolsa y banca etc.
Climatología. Predicción de tormentas o de incendios forestales.
Comunicación. Análisis de niveles de audiencia y programación en los mass
media
Hacienda. Detección de fraude fiscal
Política. Diseño de campañas electorales, de la propaganda política, de
intención de voto, etc.
Como se viene comentando desde el principio del capítulo, los datos tal y como se
almacenan no suelen proporcionar beneficios directos. Su valor real reside en la
información que se pueda extraer de ellos, información que ayude a tomar decisiones o a
mejorar la comprensión de algún fenómeno que nos rodea.
29
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
En el caso que nos ocupa, la minería de datos es solo una fase de este proceso más amplio
cuya finalidad no es otra que el descubrimiento de conocimiento en bases de datos (KDD).
Con independencia de la técnica que se siga durante el proceso de extracción de datos,
los pasos a seguir son siempre los mismos:
1. Adquisición de datos
2. Preprocesamiento y transformación
3. Minería de datos
4. Evaluación
5. Interpretación
A continuación se detallan cada uno de estos pasos.
3.2. Adquisición de datos
En el proceso de minería de datos es muy importante comprender el dominio del
problema, por lo que resulta un paso clave definir claramente lo que se intenta abordar.
Se podría definir como la fase 0.
En un segundo momento se debe seleccionar el conjunto de datos sobre el que se desea
extraer información. Es decir, se localizan las fuentes de información y los datos
obtenidos se llevan a un formato común para poder trabajar de manera más adecuada con
ellos. Frecuentemente los datos necesarios para realizar un proceso de KDD pertenecen
a distintos departamentos u organizaciones, o incluso es posible que haya que buscar
datos complementarios de informaciones oficiales. Por tanto, es recomendable y
conveniente utilizar algún método automatizado para explorar dichos datos.
Se podría resumir entonces esta fase como una etapa de comprensión de los datos con una
colección de datos inicial y realización de actividades para familiarizarse con ellos. De
esta forma se podrá identificar más fácilmente problemas de calidad para descubrir las
características de los datos. Así mismo, se podrá detectar subconjuntos para realizar las
primeras hipótesis sobre la información oculta.
Entre las tareas que se realizan podemos distinguir:
Selección: de tablas, de atributos, registros y/o fuentes con las que comenzar a
trabajar.
Estudiar los datos: el mundo que nos rodea consiste de objetos que percibimos y lo
que interesa es descubrir las relaciones entre los objetos. Los objetos en sí tienen unas
características que son las que se van a analizar.
Establecer los metadatos que serán más tarde utilizados.
Establecer el tipo de variables: Generalmente se ha hecho la distinción en
cuantitativas o cualitativas. Las cuantitativas a su vez, se distinguen en discretas (por
ejemplo, el número de empleados de una empresa) o continuas (como el sueldo, días
de vacaciones…). Mientras que las cualitativas se distinguen entre nominales
(nombran el objeto al que se refieren, como el estado civil, género…) u ordinales (se
puede establecer un orden en sus valores, como alto, medio o bajo)
30
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Establecer la caducidad de cada dato, es decir, la vida de las variables, ya que las
medidas tienen un periodo de caducidad y se toman en unas circunstancias.
3.3. Preprocesamiento y transformación
En este apartado se detalla la fase de preparación de los datos así como su trasformación.
En esta etapa del KDD se engloban todas las actividades de construcción del conjunto
final de datos, los cuales servirán como datos de entrada en los futuros algoritmos de
minería de datos, desde el conjunto inicial de los datos.
Existe la posibilidad de que estas actividades se deban realizar múltiples veces y sin un
orden determinado.
Las tareas más importantes a realizar durante esta etapa son:
• Transformación de datos
• Limpieza de datos
El primer paso que hay que seguir dentro de esta fase es asegurar la calidad de los datos,
ya que estos pueden contener valores atípicos (outliers) o valores nulos. La recolección y
registro de los datos existentes no se hizo siguiendo un formato concreto, y menos aún
fueron recogidos para tareas de minería de datos. Es por ello que suelen caracterizarse
por ser datos pobres y/o inconsistentes, que en muchas ocasiones, y como se ha
comentado anteriormente, provienen de numerosas fuentes y diversos sistemas, cada uno
de ellos con su propio tipo de datos y su propia forma de tratarlos. Lo cual, en posteriores
análisis de minería de datos, podría llevar a formulación de modelos erróneos y/o muy
sesgados.
Se antoja entonces fundamental, realizar dos funciones básicas:
1. Revisión de los datos: debido a la gran cantidad de datos que pueden formar el
dominio del problema, se suelen utilizar métodos estadísticos y de visualización que
permitirán más fácilmente identificar aquellos valores no deseados. Si se trata de variables
categóricas, las técnicas más utilizadas para localizar dichos valores son la distribución
de variables, histogramas o gráficas circulares.
Mientras, para variables cualitativas, se aconseja el uso de media, varianza, moda,
diagrama de dispersión o diagrama de cajas
2. Tratamientos de valores nulos e información incompleta: los datos más
importantes a tratar son los valores atípicos (outliers) y los valores nulos. El tratamiento
de los primeros dependerá de su naturaleza y se podrán eliminar, si se considera necesario,
del proceso de carga en el data warehouse. Para el tratamiento de los valores nulos, no
existe una técnica perfecta, aunque las directrices mínimas que deben seguirse son
eliminar las observaciones con nulos, así como eliminar las variables con muchos nulos
y utilizar un modelo predictivo para ello.
31
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Una vez realizada esto, se conseguirá una visión integrada, consistente y consolidada de
los datos.
Toda vez que los datos han sido tratados, hay que refinarlos para que cumplan los
requisitos de entrada de los futuros algoritmos, para ello se deberá llevar a cabo tareas de
conversión de variables, reducción o adición de las mismas y una discretización o
generalización, dependiendo del conjunto de datos tratado.
3.4. Minería de datos
En este apartado se detallara más en profundidad acerca de la minería de datos y en la
técnica usada para este trabajo, clustering.
Al ser la minería de datos una técnica novedosa y cuyo concepto no resulta fácil de
declarar, no existe una única definición sobre esta. Como muestra, se exponen a
continuación algunas de las más conocidas:
Definición 1. Es el proceso no trivial de descubrir patrones válidos, nuevos,
potencialmente útiles y comprensibles dentro de un conjunto de datos,
Piatetski-Shapiro G., Frawley W. J., and Matheus C. J. (1991).
Definición 2. Es la aplicación de algoritmos específicos para extraer patrones
de datos,Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996),
entendiendo por datos un conjunto de hechos y por patrones una expresión en
algún lenguaje que describe un subconjunto de datos, siempre que sea más
sencilla que la simple enumeración de todos los hechos que componen.
Definición 3. Es la integración de un conjunto de áreas que tienen como
propósito la identificación de un conocimiento obtenido a partir de las bases
de datos que aporten un sesgo hacia la toma de decisión, Grossman R. L.,
Hornik M. F., and Meyer G. (2004).
Definición 4. Es el proceso de descubrimiento de conocimiento sobre
repositorios de datos complejos mediante la extracción oculta y
potencialmente útil en forma de patrones globales y relaciones estructurales
implícitas entre datos,Kopanakis I. and Theodoulidis B. (2003).
Definición 5. El proceso de extraer conocimiento útil y comprensible,
previamente desconocido, desde grandes cantidades de datos almacenados en
distintos formatos,Witten H. and Frank E. (2005).
Definición 6. La tarea fundamental de la minería de datos es encontrar
modelos inteligibles a partir de los datos,Hernández Orallo J., (2004).
En síntesis, Los objetivos que persigue la minería de datos se pueden resumir de esta
manera:
1. Identificación de patrones significativos o relevantes
2. Procesamiento automático de grandes cantidades de datos
3. Presentación de los patrones como conocimiento adecuado para satisfacer los
objetivos del usuario
32
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Cabe mencionar en este apartado que algunos autores distinguen dos tipos de minería de
datos,Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996).
1. Mdp o minería de datos predictiva. En otras palabras, predicción de datos,
básicamente técnicas estadísticas. La clasificación y la regresión son las tares
de datos que producen modelos predictivos.
Clasificación. Es la más usada. Cada registro de la base de datos pertenece
a una determinada clase o etiqueta discreta, que se indica mediante el
valor de un atributo o clase de la instancia. El objetivo no es otro que
predecir una clase, dados los valores de los atributos. Árboles de decisión,
sistemas de reglas o análisis de discriminantes son algunos ejemplos.
También podemos encontrar variantes de la tarea de clasificación como
rankings, aprendizaje de preferencias, etc…
Regresión o estimación. Es el aprendizaje de una función real que asigna
a cada instancia un valor real de tipo numérico. El objetivo es inducir un
modelo para poder predecir el valor de la clase dados los valores de los
atributos. Se usan, por ejemplo, árboles de regresión, redes neuronales
artificiales, regresión lineal, etc.
2. Mddc o minería de datos para el descubrimiento del conocimiento, usando
básicamente técnicas de ingeniería artificial. Las tareas que producen
modelos descriptivos son el agrupamiento (clustering), las reglas de
asociación secuenciales y el análisis correlacional, como se verá más delante.
Clustering o agrupamiento. Técnica descrita en este trabajo. Consiste en
la obtención de grupos, que tienen los elementos similares, a partir de los
datos. Estos elementos u objetos similares de un grupo son muy diferentes
a los objetos de otro grupo. Esta técnica de estudio por agrupamiento fue
ya utilizada a principios del siglo XX en otras áreas lingüísticas, como la
Semántica. Formando campos semánticos se estudia el léxico de un
idioma con sus particularidades.
Reglas de asociación. Su objetivo es identificar relaciones no explícitas
entre atributos categóricos. Una de las variantes de reglas de asociación
es la secuencial, que usa secuencias de datos.
Análisis correlacional. Utilizada para comprobar el grado de similitud de
los valores de dos variables numéricas.
El proceso de minería de datos cuenta con una serie de ventajas que se pueden sintetizar
en las siguientes:
Proporciona poder de decisión a los usuarios y es capaz de medir las acciones
y resultados de la mejor manera.
Contribuye a la toma de decisiones tácticas y estratégicas.
Supone un ahorro económico a las empresas y abre nuevas posibilidades de
negocio.
Es capaz de generar modelos prescriptivos y descriptivos.
33
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Nos centraremos ahora en la técnica usada para este trabajo, clustering, como se ha
mencionado en apartados anteriores.
Clustering no es más que agrupar un conjunto de objetos abstractos o físicos en clases
similares. Por lo tanto un clúster se puede definir como una colección de datos parecidos
entre ellos y diferentes de los datos que pertenecen a otro clúster. Así mismo, un clúster
de datos puede ser tratado colectivamente como un único grupo.
Sabiendo esto, las técnicas de clustering se pueden definir como técnicas de clasificación
no supervisada de patrones en conjuntos denominados clúster.
Aunque el problema de clustering ha sido planteado por una gran cantidad de disciplinas
y es aplicable a también gran número de contextos, sigue siendo un problema complejo y
su desarrollo es más lento que el esperado.
Se pasará ahora a ofrecer una visión global de los distintos métodos de clustering así
como las distintas aplicaciones de conceptos relacionados con este entorno.
El análisis de clúster es una importante actividad humana. Ya desde temprana edad, el ser
humano aprende a distinguir entre hombre y mujer, o entre oriental u occidental, mediante
una mejora continua de los esquemas de clasificación.
Las técnicas de clustering han sido ampliamente utilizadas en múltiples aplicaciones tales
como reconocimiento de patrones, análisis de datos, procesado de imágenes o estudios de
mercado. Gracias al clustering se pueden identificar regiones tanto pobladas como
dispersas y, por consiguiente, descubrir patrones de distribución general y correlaciones
interesantes entre los atributos de los datos. En el área de los negocios, el clustering puede
ayudar a descubrir distintos grupos en los hábitos de sus clientes y así, caracterizarlo en
grupos basados en patrones de compra. En el ámbito de la biología puede utilizarse, por
ejemplo, para derivar taxonomías animales y vegetales o descubrir genes con
funcionalidades similares.
De igual manera, el clustering puede ayudar a identificar áreas en las que la composición
de la tierra se parece y, más concretamente, en teledetección se pueden detectar zonas
quemadas, superpobladas o desérticas. En internet se puede utilizar para clasificar
documentos y descubrir información relevante de ellos.
El análisis de clústeres se puede usar para hacerse una idea de la distribución de los datos,
para observar las características de cada clúster y para centrarse en un conjunto particular
de datos para futuros análisis.
El clustering de datos es una disciplina científica que cuenta con multitud de estudios y
artículos en diferentes ámbitos. Debido a la enorme cantidad de datos contenidos en las
bases de datos, el clustering se ha convertido en un tema muy activo en las investigaciones
de la minería de datos. Como rama de la estadística, el análisis de clústeres ha sido objeto
de estudio durante muchos años, centrándose principalmente en los las técnicas basadas
en la medida de distancias.
En lo referente al aprendizaje automático, el clustering suele venir referido como
aprendizaje no supervisado.
34
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
A diferencia de la clasificación, el clustering no depende de clases previamente definidas
ni en ejemplos de entrenamientos etiquetados a priori. Por esta razón, se trata de una
forma de aprendizaje por observación en vez de aprendizaje por ejemplos. En el clustering
conceptual un grupo de objetos forma una clase sólo si puede ser descrito mediante un
concepto.
El clustering conceptual consiste en dos componentes:
1. Descubre las clases apropiadas.
2. Forma descripciones para cada clase, tal y como sucede en la clasificación.
El clustering es, hoy en día, un campo de investigación en el que sus aplicaciones
potenciales plantean sus propios requerimientos específicos. Dichos requerimientos se
pueden resumir en:
1. Escalabilidad. Aplicar clustering sobre una muestra de una gran base de datos
dada puede arrojar resultados parciales. El reto está en desarrollar algoritmos
de clustering que sean altamente escalables en grandes bases de datos.
2. Capacidad para tratar con diferentes tipos de atributos. Muchos algoritmos se
diseñan para clústeres de datos numéricos. Sin embargo, multitud de
aplicaciones pueden requerir clústeres de otro.
3. Descubrir clústeres de forma arbitraria. Muchos algoritmos de clustering
determinan clústeres basándose en medidas de distancia de Manhattan o
euclídeas. Tales algoritmos tienden a encontrar clústeres esféricos con
tamaños y densidades similares. Sin embargo, un clúster puede tener
cualquier tipo de forma. Es por ello que es importante desarrollar algoritmos
capaces de detectar clústeres de forma arbitraria.
4. Requisitos mínimos para determinar los parámetros de entrada. Muchos
algoritmos requieren que los usuarios introduzcan ciertos parámetros en el
análisis de clústeres (como puede ser el número de clústeres deseado).El
clustering es muy sensible a dichos parámetros. Este hecho no sólo preocupa
a los usuarios sino que también hace que la calidad del clustering sea difícil
de controlar.
5. Capacidad para enfrentarse a datos ruidosos. La mayor parte de las bases de
datos reales contienen datos de tipo outliers o datos ausentes, desconocidos o
erróneos. Algunos algoritmos de clustering son sensibles a este tipo de datos
lo que puede acarrear una baja calidad en los clústeres obtenidos.
6. Insensibilidad al orden de los registros de entrada. Determinados algoritmos
son sensibles al orden de los datos de entrada, pudiendo el mismo conjunto
de datos presentados en diferente orden generar clústeres extremadamente
diferentes. Se hace necesario desarrollar algoritmos que sean insensibles al
orden de la entrada.
7. Alta dimensionalidad. Una base de datos puede contener varias dimensiones
o atributos. Muchos algoritmos de clustering son buenos cuando manejan
datos de baja dimensión (dos o tres dimensiones). El ojo humano es adecuado
para medir la calidad del clustering hasta tres dimensiones.
35
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Es un reto agrupar objetos en un espacio de alta dimensión, especialmente
considerando que en dicho espacio los datos pueden estar altamente
esparcidos y distorsionados.
8. Clustering basado en restricciones. Las aplicaciones del mundo real pueden
necesitar realizar clustering bajo ciertos tipos de restricciones.
9. Interpretabilidad y usabilidad. Los usuarios esperan que los resultados
proporcionados por el clustering sean interpretables, comprensibles y útiles.
Esto es, el clustering puede necesitar ser relacionado con interpretaciones
semánticas específicas. Así, es importante estudiar cómo el objetivo buscado
por una aplicación puede influir en la selección de los métodos de clustering.
Dados los requerimientos anteriormente mencionados, el estudio del análisis de clústeres
se hará como sigue.
En primer lugar se estudian los diferentes tipos de datos y cómo pueden
influir los métodos de clustering.
En segunda instancia se presentan una categorización general de los
anteriormente citados métodos.
Posteriormente se estudiará cada método en detalle, incluyendo los métodos
de particionado, jerárquico, basados en densidad, basados en rejilla, y
basados en modelos.
Los pasos de una tarea de clustering típica se pueden resumir en los cinco siguientes, A.
K. Jain and R. C. Dubes (1988), divididos por los que realizan el agrupamiento de los
datos en clústeres frente a los que se refieren a la utilización de la salida.
Agrupamiento de los datos:
1. Representación del patrón (opcionalmente incluyendo características de la
extracción y/o selección).
2. Definición de una medida de la proximidad de patrones apropiada para el
dominio de los datos.
3. Clustering propiamente dicho (agrupamiento de los patrones).
Utilización de la salida:
4. Abstracción de los datos (si es necesario).
5. Evaluación de la salida (si es necesario).
La representación del patrón se refiere al número de clases, el número de patrones
disponible, y el número, tipo, y escala de las características disponibles para el algoritmo
de clustering. La selección de características es el proceso de identificar el subconjunto
más apropiado de características dentro del conjunto original para utilizarlo en el proceso
de agrupamiento. La extracción de características es el uso de una o más transformaciones
de las características de la entrada para producir nuevas características de salida. La
proximidad de patrones se mide generalmente según una función de distancia definida
para pares de patrones. Existen gran variedad de funciones de distancias que han sido
utilizadas por diversos autores y que serán descritas más adelante.
36
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
El paso de agrupamiento o clustering propiamente dicho puede ser realizado de diversas
formas. El clustering de salida puede ser hard (duro) o fuzzy (difuso).
El primero realiza una partición de los datos en grupos y en el segundo cada patrón tiene
un grado variable de calidad en cada uno de los clústeres de salida. Los algoritmos de
clustering jerárquicos son una serie jerarquizada de particiones basadas en un criterio de
combinación o división de clústeres según su semejanza. Los algoritmos de clustering
particionales identifican la partición que optimiza un criterio de agrupamiento. Todas las
técnicas se detallarán más adelante.
Es difícil evaluar si la salida de un algoritmo de clustering ha obtenido clústeres válidos
o útiles para el contexto concreto en el que se aplica. Hay que tener en cuenta la cantidad
y calidad de recursos de que se dispone, así como las restricciones tiempo y espacio
establecidos. Debido a estas razones es posible que haya que realizar un análisis previo
de la información que se desea procesar.
El análisis de validez de clústeres consiste en la evaluación de la salida obtenida por el
algoritmo de clustering. Este análisis utiliza a menudo un criterio específico; sin embargo,
estos criterios llegan a ser generalmente subjetivos. Así, existen pocos estándares en
clustering excepto en subdominios bien predefinidos.
Los análisis de validez deben ser objetivos,Dubes R. C. (1993), y se realizan para
determinar si la salida es significativa. Cuando se utiliza aproximaciones de tipo
estadístico en clustering, la validación se logra aplicando cuidadosamente métodos
estadísticos e hipótesis de prueba. Hay tres tipos de estudios de la validación:
1. La evaluación externa de la validez compara la estructura obtenida con una
estructura a priori.
2. La evaluación interna intenta determinar si una estructura es intrínsecamente
apropiada para los datos.
3. La evaluación relativa compara dos estructuras y mide la calidad relativa de
ambas.
Así, la medida de la distancia es un aspecto clave en multitud de técnicas de minería de
datos. Puesto que la semejanza entre patrones es fundamental a la hora de definir un
clúster, es necesario establecer una forma de medir esta semejanza. La gran variedad de
tipos de atributos hace que la medida (o medidas) de semejanza debe ser elegida
cuidadosamente. Lo más común es calcular el concepto contrario, es decir, la diferencia
o disimilitud entre dos patrones usando la medida de la distancia en un espacio de
características. Existen unos cuantos métodos para definir la distancia entre objetos. La
medida de distancia más popular es la distancia euclídea que se define como:
𝑑(𝑖, 𝑗) = √|𝑥𝑖1 − 𝑥𝑗1|2 + |𝑥𝑖2 − 𝑥𝑗2|2 + ⋯ + |𝑥𝑖𝑝 − 𝑥𝑗𝑝|2 (3.4.1)
Donde i = (xi1, xi2, · · · , xip) y j = (xj1, xj2, · · · , xjp) son dos objetos de p dimensiones.
La distancia euclídea nos da una medida intuitiva de la distancia entre dos puntos en un
espacio de dos o tres dimensiones. Esto puede ser útil cuando los clústeres son
compactos,Mao J. and Jain A. (1996).
37
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Otra métrica utilizada es la distancia Manhattan, definida por:
𝑑(𝑖, 𝑗) = |𝑥𝑖1 − 𝑥𝑗1| + |𝑥𝑖2 − 𝑥𝑗2| + ⋯ + |𝑥𝑖𝑝 − 𝑥𝑗𝑝| (3.4.2)
Tanto la distancia euclídea como la distancia Manhattan satisfacen los siguientes
requisitos matemáticos para una función de distancia:
1. d(i, j) >= 0. Esto es, la distancia es un número no negativo.
2. d(i, i) = 0. Es decir, la distancia de un objeto a él mismo es cero.
3. d(i, j) = d(j, i). La distancia es una función simétrica.
4. d(i, j) =<d(i, h) + d(h, j). Se trata de una desigualdad triangular que afirma
que ir directamente desde un punto i hasta un punto j nunca es más largo que
pasando por un punto intermedio h.
Finalmente, la distancia Minkowski es una generalización de las distancias Manhattan y
euclídea. Se define por:
𝑑(𝑖, 𝑗) = (|𝑥𝑖1 − 𝑥𝑗1|𝑞
+ |𝑥𝑖2 − 𝑥𝑗2|𝑞
+ ⋯ + |𝑥𝑖𝑝 − 𝑥𝑗𝑝|𝑞
)1/𝑞 (3.4.3)
Donde q es un entero positivo. Representa a la distancia Manhattan cuandoq = 1 y a la
euclídea cuando q = 2. El inconveniente que presenta dicha medida de la distancia es la
tendencia de los atributos de mayor magnitud a dominar al resto. Para solucionar esta
desventaja se puede normalizar los valores de los atributos continuos, de forma que todos
tomen valores dentro de un mismo rango. Por otro lado, la correlación entre los distintos
atributos puede influir negativamente en el cálculo de la distancia. Para dar solución a
este problema se usa la distancia cuadrática de Mahalanibis:
𝑑𝑀(𝑥𝑖 , 𝑥𝑗) = (𝑥𝑖, 𝑥𝑗) ∑ (𝑥𝑖, 𝑥𝑗)𝑇−1 (3.4.4)
Donde xi y xj son vectores fila y P es la matriz de covarianza de los patrones. La distancia
asigna diferentes pesos a cada característica basándose en la varianza y en la correlación
lineal de los pares. Si a cada variable se le asigna un peso de acuerdo con su importancia,
la nueva distancia euclídea ponderada se puede calcular de la siguiente manera:
𝑑(𝑖, 𝑗) = √𝑤1|𝑥𝑖1 − 𝑥𝑗1|2 + 𝑤2|𝑥𝑖2 − 𝑥𝑗2|2 + ⋯ + 𝑤𝑝|𝑥𝑖𝑝 − 𝑥𝑗𝑝|2 (3.4.5)
Este escalado es también aplicable a las distancias Manhattan y Minkowski.
Las medidas de los coeficientes de similitud o disimilitud pueden ser utilizadas para
evaluar la calidad del clúster. En general la disimilitud d(i, j) es un número positivo
cercano a cero cuando i y j están próximos el uno del otro y se hace grande cuando son
más diferentes.
Las disimilitudes se pueden obtener mediante una simple clasificación subjetiva, hecha
por un grupo de observadores o expertos, de cuánto difieren determinados objetos unos
de otros.
Por ejemplo, en ciencias sociales se puede clasificar lo cercano que un sujeto está de otro,
así como en matemáticas, biología o física.
38
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Alternativamente, las disimilitudes se pueden calcular con coeficientes de correlación.
Dados n objetos para clasificar la correlación producto-momento de Pearson entre dos
variables f y g se define en (3.4.5), donde f y g son variables que describen los objetos,
mf y mg son los valores medios de f y g respectivamente y xif es el valor de f para el objeto
i−ésimo, equivalentemente xig es el valor de g para el objeto i−ésimo.
𝑅(𝑓, 𝑔) =∑ (𝑥𝑖𝑓−𝑚𝑓)(𝑥𝑖𝑔−𝑚𝑔)𝑛
𝑖=1
√∑ (𝑥𝑖𝑓−𝑚𝑓)2𝑛𝑖=1 √∑ (𝑥𝑖𝑔−𝑚𝑔)2𝑛
𝑖=1
(3.4.6)
La fórmula de conversión (3.4.6) se usa para calcular los coeficientes de disimilitud d(f,
g) tanto para coeficientes de correlación paramétricos como para coeficientes de
correlación no paramétricos.
𝑑(𝑓, 𝑔) =1−𝑅(𝑓,𝑔)
2 (3.4.7)
El tener variables con valores de correlación altos y positivos implica que el coeficiente
de disimilitud está cercano a cero. Por el contrario, aquellas variables que tengan una
correlación alta negativa tendrán un coeficiente de disimilitud cercano a uno, es decir, las
variables son muy diferentes.
En determinadas aplicaciones los usuarios pueden preferir usar la fórmula de conversión
(3.4.7) donde las variables con valores de correlación altos (tanto positivos como
negativos) tienen asignadas el mismo valor de similitud.
d(f, g) = 1− | R(f, g) | (3.4.8)
Igualmente, hay quien puede querer usar coeficientes de similitud s(i, j) en vez del
coeficiente de disimilitud. La fórmula (3.4.8) puede usarse para relacionar ambos
coeficientes.
s(i, j) = 1 − d(i, j) (3.4.9)
Nótese que no todas las variables deberían estar incluidas en el análisis de clustering.
Incluir una variable que no aporte significado a un clustering dado puede hacer que la
información útil proporcionada por otras variables quede enmascarada.
Por ejemplo, en el caso de que se quisiera hacer clustering de un grupo de personas de
acuerdo con sus características físicas, incluir el atributo número de teléfono resultaría
altamente ineficiente y, por tanto, este tipo de variables basura deben se excluidas del
proceso de clustering.
A continuación se expone los tipos de datos que aparecen con frecuencia en el clustering
y cómo se preprocesan los mismos. Supóngase que el conjunto de los datos objetivo
contiene n objetos que pueden representar personas, casas, o cualquier otra variable que
pueda imaginar. Los principales algoritmos de clustering basados en memoria operan
normalmente en una de las dos siguientes estructuras de datos.
1. Matriz de datos. Ésta representa n objetos, como pueden ser n personas, con
p variables (también llamadas atributos), como pueden ser edad, altura o
peso. La estructura tiene forma de tabla relacional o de matriz de dimensión
n × p (n objetos por p variables), se muestra en (3.4.10).
39
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
[
𝑥11 𝑥22 ⋯ 𝑥1𝑝
𝑥21 𝑥22 ⋯ 𝑥2𝑝
⋯ ⋯ ⋱ ⋯𝑥𝑛1 𝑥𝑛2 ⋯ 𝑥𝑛𝑝
] (3.4.10)
2. Matriz de disimilitud. Almacena la colección de distancias disponibles para
todos los pares de n objetos. Se suele representar como una tabla n × n, tal y
como se muestra a continuación.
[
0 0 ⋯ 0𝑑(2,1) 0 ⋯ 0
⋯ ⋯ ⋱ ⋯𝑑(𝑛, 1) 𝑑(𝑛, 2) ⋯ 0
] (3.4.11)
Donde d(i, j) es la distancia medida entre los objetos i y j. Ya que d(i, j) =d(j, i) y que d(i,
i) = 0 tenemos la matriz mostrada en (3.4.11). Las medidas de similitud serán discutidas
en este apartado.
La matriz de datos suele llamarse matriz de dos modos, mientras que la matriz de
disimilitud se llama matriz de un modo ya que las filas y columnas de la primera
representan entidades diferentes, mientras que las de la segunda representan la misma
entidad. Muchos algoritmos de clustering trabajan con la matriz de disimilitud. Si la
entrada se presenta como una matriz de datos, se deben transformar en una matriz de
disimilitud antes de aplicar dichos algoritmos.
Se comentarán a continuación las distintas técnicas de clustering existentes.
Existen un gran número de algoritmos de clustering en la actualidad. La elección de una
técnica u otra dependerá tanto del tipo de datos disponibles como del propósito de la
aplicación. Si se utiliza el análisis de clustering como una herramienta descriptiva o
exploratoria, es posible que se prueben distintos algoritmos sobre los mismos datos con
el fin de ver cuál es el método que mejor se ajusta al problema.
En general, los métodos de clústeres se pueden agrupar en las siguientes categorías:
1. Métodos particionales. Dada una base de datos con n objetos, un método
particional construye k grupos de los datos, donde cada partición representa
a un clúster y k ≤n. Esto es, clasifica a los datos en k grupos que satisfacen
los siguientes requisitos:
Cada grupo debe contener, al menos, un elemento.
Cada elemento debe pertenecer únicamente a un grupo.
Nótese que el segundo requerimiento se relaja en ciertas técnicas
particionales difusas.
Dado k, el número de particiones que se deben construir, los métodos
particionales realizan una partición inicial. A continuación, utilizan una
técnica iterativa de recolocación que intenta mejorar la partición moviendo
los objetos de un grupo a otro. El criterio general para decidir si una partición
40
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
es buena es que los objetos pertenecientes al mismo clúster estén cerca
mientras que los objetos pertenecientes a los clústeres restantes estén lejos de
ellos.
Conseguir una optimización global de un clustering basado en particiones
requeriría una enumeración exhaustiva de todas las posibles particiones.
Por el contrario, la mayoría de las aplicaciones adoptan una de las dos
heurísticas más populares:
Algoritmo K-means, donde cada clúster se representa por medio de
los objetos en el clúster. Existen algunas variaciones de este método
como el Expectation Maximization.
Algoritmo K-medianas, donde cada clúster se representa por uno de
los objetos situados cerca del centro del clúster.
Estas heurísticas funcionan bien para bases de datos pequeñas o medianas
que tengan una forma esférica. Para encontrar clústeres con formas más
complejas y en bases de datos más grandes, se debe recurrir a extensiones de
los mismos.
2. Métodos jerárquicos. Estos métodos crean una descomposición jerárquica del
conjunto de datos objeto de estudio. Un método jerárquico puede ser
clasificado como aglomerativo o divisivo:
Aglomerativo: comienza con cada patrón en un clúster distinto y combina
sucesivamente clústeres próximos hasta un que se satisface un criterio
preestablecido.
Divisivo: comienza con todos los patrones en un único clúster y se
realizan particiones de éste, creando así nuevos clústeres hasta satisfacer
un criterio predeterminado.
Los métodos jerárquicos presentan un pequeño inconveniente y es que una
vez que un paso se realiza (unión o división de datos), éste no puede
deshacerse. Esta falta de flexibilidad es tanto la clave de su éxito, ya que
arroja un tiempo de computación muy bajo, como su mayor problema puesto
que no es capaz de corregir errores.
Si se usa primero el algoritmo aglomerativo jerárquico y después la
recolocación iterativa se puede sacar más provecho de estas técnicas. Existen,
de hecho, ciertos algoritmos como BIRCH, Zhang T, Ramakrishnan R., and
Livny M. (1996), y CURE,Guha S., Rastogi R., and Shim K. (1998), que han
sido desarrollados basándose en esta solución integrada.
3. Métodos basados en densidad. La mayoría de los métodos particionales sólo
pueden encontrar clústeres de forma esférica. Para paliar este efecto, se han
desarrollado técnicas de clustering basados en la noción de densidad. La idea
subyacente es continuar aumentando el tamaño del clúster hasta que la
densidad (número de objetos o datos) en su vecindad exceda de un
determinado umbral, es decir, para cada dato perteneciente a un clúster, la
vecindad de un radio dado debe contener al menos un mínimo de número de
puntos. Este método se puede usar para eliminar ruido (outliers) y para
descubrir clústeres de forma arbitraria. El DBSCAN es un método métodos
típicamente basado en densidad.
41
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Existen otros tipos de técnicas de clustering, métodos basados en rejilla y métodos
basados en modelos, que dada su escaso peso en las aplicaciones que se estudian en este
documento no serán detallados con profundidad.
Mención aparte merecen los fuzzy (difusos) clustering y su estudio se realiza en sucesivos
apartados.
Se comentará ahora los distintos tipos de algoritmos particionales, como son el algoritmo
K-means (K-medias), el algoritmo Expectation Maximization (EM) y el algoritmo K-
mediods (K-medianas).
Algoritmo K-means (K-medias)
El algoritmo K-means fue propuesto por MacQueen en el año
1968,MacQueen J. (1968). Este algoritmo coge el parámetro de entrada, k, y
particiona el conjunto de n datos en los k clústeres de tal manera que la
similitud intra-clúster es elevada mientras que la inter-clúster es baja. Dicha
similitud se mide en relación al valor medio de los objetos en el clúster, lo
que puede ser visto como si fuera su centro de gravedad.
El algoritmo procede como sigue. En primer lugar, escoge aleatoriamente k
objetos haciendo que éstos representen el centro del clúster. Cada uno de los
objetos restantes se va asignando al clúster que sea más similar basándose en
la distancia del objeto a la media del clúster. Entonces computa la nueva
media de cada clúster y el proceso sigue iterando hasta que se consigue la
convergencia (se minimiza el error cuadrático medio).
El método es relativamente escalable y eficiente para el procesado de
conjuntos de datos grandes ya que la complejidad computacional del
algoritmo es O(nkt), donde n es el número de objetos, k el número de clústeres
y t el número de iteraciones. Normalmente k << n y t << N, produciéndose
un óptimo local.
El K-means se puede aplicar sólo cuando la media de un clúster puede ser
definida, esto es, no es de aplicación en los casos en que los atributos sean
categóricos. Otro inconveniente es su sensibilidad al ruido y a los outliers.
Además, la necesidad de dar el valor de k a priori resulta uno de sus mayores
puntos débiles.
Algoritmo Expectation Maximization (EM)
Este algoritmo es una variante del K-means y fue propuesto por Lauritzen en
1995, MacQueen J. (1995). Se trata de obtener la FDP (función de densidad
de probabilidad) desconocida a la que pertenecen el conjunto completo de
datos. Esta FDP se puede aproximar mediante una combinación lineal de NC
componentes, definidas a falta de una serie de parámetros𝜃 =∪ 𝜃𝑗∀𝑗=
1. . 𝑁𝐶, que son los que hay que averiguar,
𝑃(𝑥) = ∑ 𝜋𝑗𝑝(𝑥; 𝜃𝑗)𝑁𝐶𝑗=1 (3.4.11)
con
∑ 𝜋𝑗𝑁𝐶𝑗=1 = 1 (3.4.12)
Donde𝜋𝑗 son las probabilidades a priori de cada clúster cuya suma debe ser
1, que también forman parte de la solución buscada, 𝑃(𝑥)denota la FDP
arbitraria y 𝑝(𝑥; 𝜃𝑗) la función de densidad del componente j. Cada clúster se
42
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
corresponde con las respectivas muestras de datos que pertenecen a cada una
de las densidades que se mezclan. Se pueden estimar FDP de formas
arbitrarias, utilizándose FDP normales n-dimensionales, t-Student, Bernoulli,
Poisson, y log-normales. El ajuste de los parámetros del modelo requiere
alguna medida de su bondad, es decir, cómo de bien encajan los datos sobre
la distribución que los representa. Este valor de bondad se conoce como el
likelihood de los datos. Se trataría entonces de estimar los parámetros
buscados 𝜃, maximizando este likelihood (este criterio se conoce como ML-
Maximun Likelihood). Normalmente, lo que se calcula es el logaritmo de este
likelihood, conocido como log-likelihood, ya que es más fácil de calcular de
forma analítica. La solución obtenida es la misma gracias a la propiedad de
monotonicidad del logaritmo. La forma de esta función log-likelihood es:
𝐿(𝜃, 𝜋) = 𝑙𝑜𝑔Π𝑛=1𝑁𝐼 𝑃(𝑥𝑛) (3.4.13)
Donde NI es el número de instancias, que suponemos independientes entre
sí.
El algoritmo EM, procede en dos pasos que se repiten de forma iterativa:
1. Expectation. Utiliza los valores de los parámetros iniciales o
proporcionados por el paso Maximization de la iteración anterior,
obteniendo diferentes formas de la FDP buscada.
2. Maximization. Obtiene nuevos valores de los parámetros a partir de
los datos proporcionados por el paso anterior.
Después de una serie de iteraciones, el algoritmo EM tiende a un máximo
local de la función L. Finalmente se obtendrá un conjunto de clústeres que
agrupan el conjunto de proyectos original. Cada uno de estos clúster estará
definido por los parámetros de una distribución normal.
Algoritmo K-mediods (K-medianas)
Como se comentó anteriormente, el algoritmo K-means es sensible a los
outliers ya que un objeto con un valor extremadamente elevado puede
distorsionar la distribución de los datos. En lugar de coger el valor medio de
los objetos de un clúster como punto de referencia, se podría tomar un objeto
representativo del clúster, llamado mediod, Kaufman L. and Rousseeuw P.
J., (1990), que sería el punto situado más al centro del clúster.
Así, el método particional puede ser aplicado bajo el principio de minimizar
la suma de las disimilitudes entre cada objeto y con su correspondiente punto
de referencia.
El algoritmo trata, pues, de determinar k particiones para n objetos. Tras una
selección inicial de los kmediods, el algoritmo trata de hacer una elección
mejor de los mediods repetidamente. Para ello analiza todos los posibles
pares de objetos tales que un objeto sea el mediod y el otro no. La medida de
calidad del clustering se calcula para cada una de estas combinaciones. La
mejor opción de puntos en una iteración se escoge como los mediods para la
siguiente iteración.
El coste computacional de cada iteración es de O(k(n − 𝑘)2), por lo que
para valores altos de k y n el coste se podría disparar.
43
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
El algoritmo K − mediods es más robusto que el K − means frente a la
presencia del ruido y de los outliers ya que la mediana es menos influenciable
por un outlier, u otro valor extremo, que la media. Sin embargo, su procesado
es mucho más costoso y además necesita también que el usuario le
proporcione el valor de k.
3.5. Evaluación
Una vez se ha aplicado la técnica o técnicas de minería de datos elegidas, y se han
obtenido el o los modelos de conocimientos que representan patrones de comportamiento
observados en los valores, es necesario validarlos para comprobar que las resultados que
se obtienen son, efectivamente, válidos y lo suficiente satisfactorios. En el caso de que
sea hayan obtenido más de un modelo se deben comparar para buscar el que se ajuste
mejor al problema.
Si resultara que ninguno de los modelos obtiene los resultados esperados, debe volverse
a alguno de los pasos anteriores y alterarlos para generar nuevos modelos.
Por otra parte, si el modelo final no pasará la evaluación, el proceso se podría repetirse
desde el comienzo o a partir de los pasos anteriores, sopesando el incluir otros datos, otros
algoritmos, otras metas u otras estrategias. Se puede considerar este paso como crucial,
en donde se requiere tener conocimiento del dominio.
De otro lado, si el modelo es validado y resulta ser aceptable, es decir, que proporciona
salidas adecuadas y ofrece márgenes de error admisibles, se puede entonces considerar
listo para su explotación e interpretación.
Pero antes de comenzar con la evaluación del modelo es necesario contar con una serie
de parámetros de calidad.
Nos centraremos en los más usados, contando con los indicadores previos que
necesitamos usar:
Verdaderos positivos, TP (del inglés true positive). Es definido como el número de
veces que el clasificador asigna un 1 a la instancia que está clasificando, y éste,
efectivamente, ocurre durante los siguientes cinco días. (Predice la ocurrencia del
evento analizado)
Verdaderos negativos, TN (del inglés true negative). Se define como el número de
veces que se ha predicho que no ocurrirá el evento analizado durante los cinco
próximos días, y verdaderamente, éste no ocurre. (Predice la no ocurrencia del evento
analizado)
Falso positivo, FP (del inglés false positive). Es definido como el número de veces
que se detecta de forma errónea que sucederá el evento analizado en los próximos
cinco días. En otras palabras, indica el número de veces que el clasificador asignó
una etiqueta con valor 1 cuando en realidad debía asignar un 0. (Predice la ocurrencia
del evento analizado, y este no ocurre)
44
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Falso negativo, FN (del inglés, false negative). Se define como el número de veces
que se ha predicho que no ocurrirá el evento analizado durante los próximos cinco
días, y sin embargo, éste ocurre. (Predice la no ocurrencia del evento analizado, y en
realidad ocurre)
A partir de los indicadores anteriores, se calculan los parámetros de calidad propiamente
dichos. En particular:
Sensibilidad, S: Se define como la proporción de eventos identificados
correctamente, sobre el total de los mismos, sin tener en cuenta los FP. De forma
matemática se expresa como: S = TP / (TP + FN). Estadísticamente indica la
capacidad del estimador elegido para identificar como casos positivos los que de
verdad lo son, o puede verse también como la proporción de eventos correctamente
identificados.
Especificidad, E: Es definido como el ratio de negativos identificados de forma
correcta. De forma matemática se expresa como: E= TN / (TN+FP). Estadísticamente
indica la capacidad del estimador para dar como casos negativos los que realmente
lo son, o puede verse también como la proporción de eventos negativos
correctamente identificados.
3.6. Interpretación
Una vez el modelo ha sido validado, se tiene que pasar a interpretar los resultados
obtenidos. Para ello se hace imprescindible tener un buen conocimiento del dominio
tratado y así poder interpretar correctamente los patrones obtenidos, de esta forma podrá
ser traducido y explicado en términos que puedan entender usuarios no expertos en la
materia.
El fin de la interpretación no es más que, en base a los modelos o patrones conseguidos,
llegar a una conclusión que lleve a reafirmar la hipótesis que se tenía o la desmientan y
lleven a otra hipótesis e interpretación de los resultados, para así llegar a una hipótesis
final.
45
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
4. Desarrollo de una metodología para la detección de patrones
precursores de terremotos
Siguiendo con la metodología de KDD explicada anteriormente de forma teórica vamos
a aplicarla a la práctica en el proyecto que he realizado.
4.1. Preprocesamiento y transformación
En este apartado se detalla la fase de preparación de los datos así como su trasformación.
4.1.1. Filtrado
En esta etapa podemos ver que las tareas más importantes a realizar durante esta etapa
son:
Establecer el valor de la magnitud (M).
Establecer el número de agrupaciones.
Una vez cargado el archivo podemos obtener un rango de magnitudes con la que dicho
archivo ha trabajado, por lo que debemos establecer el valor de la magnitud mínima que
queremos predecir dentro de dicho rango.
También tenemos que establecer el número de agrupaciones que deseamos obtener, de
este modo se puede elegir una agrupación de uno, en el caso de que no se deseen agrupar
los registros/filas del archivo que se ha cargado previamente para no perder valor sobre
los datos. Aunque es posible que el archivo sea excesivamente grande y deseemos
acortarlo realizando agrupaciones de los diferentes registros/filas que contiene dicho
archivo.
Esta etapa es la encargada de cargar los datos (.arff) y realiza una transformación del
fichero dependiendo de los parámetros que se le indique. Se debe realizar antes de avanzar
hacia la siguiente etapa.
4.1.2. Clustering
Una vez que los datos se encuentren previamente filtrados, entonces podremos avanzar
hasta la etapa de Clustering, donde gracias a la ayuda de la API de Weka se puede realizar
un clusterizado al archivo con el algoritmo “SimpleKMeans” indicando previamente el
valor de “K”, es decir, indicando el número de cluster que se van a formar. Las
posibilidades establecidas son desde 2 hasta 5 números de cluster, donde el usuario es el
que decide.
Una vez decidido se iniciará a realizar dicho algoritmo de clustering, donde los datos
resultantes serán guardados en otro archivo (.arff), preparándolo ya para la siguiente
etapa.
46
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
4.2. Minería de datos
Ahora vamos a proceder a explicar las partes más complejas e importantes del código,
para llegar a comprender como se puede conseguir sacar un patrón y realizar predicciones
en base a dichos patrones.
Se divide en tres etapas importantes que son las siguientes:
- Filtrado
- Clustering
- Estadísticas
Cada etapa tiene un objetivo en concreto, los dos primeros ya hemos hablado de ello
anteriormente, pero el último es el que determina el patrón dependiendo de los parámetros
de entrada que elija el usuario.
Figura 1: Proceso de negocio
En la imagen anterior podemos observar el flujo de datos del software en el modo manual,
ya que puede llegar a ser un poco más complicado de comprender, a pesar de la interfaz
gráfica tan amigable e intuitiva que tiene.
A continuación vamos a describir el funcionamiento del software y si fuera necesario
usaremos pseudocódigo para detallarlo.
47
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
4.2.1. Filtrado
1º PASO:
Abrir archivo y guardar la información de manera ordenada.
- Guardamos todas las línea de atributos (ej: “@attribute continuousClass
numeric”) en una lista de String.
- Como podemos en el ejemplo de la siguiente imagen, los datos están guardados
de modo que una línea/registro contiene valores (separados por coma), el número
de valores se corresponde con el número de atributos. Por lo tanto se necesita una
lista de lista de String, donde la lista contendrá listas (líneas/registros) y en cada
lista contendrá un valor (dicho valor hace referencia al valor de un atributo).
Figura 2: Organización de los atributos del archivo ARFF
2ºPASO:
Filtrar y exportar a un archivo.
- Filtrar y exportar atributos:
Al filtrar tenemos que indicar una M (ejemplo: 3.5), por tanto no hay que exportar
aquellos atributos que hagan referencia a otras M, como podemos observar en la
siguiente imagen.
48
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Figura 3: Seleccionamos los atributos necesarios
Mientras vamos exportando los atributos necesarios, guardamos en un Array la
posición de aquellos atributos que SI se exportan, porque luego nos será útil para
el filtro de datos. Ya que el orden de los atributos es el mismo orden que el de los
valores.
- Filtrar y exportar datos:
A la hora de manejar los datos solo se trata de localizar las posiciones de los
atributos que SI son exportados y ver cuáles son sus correspondientes datos,
realizando la agrupación indicada por el usuario.
Podemos ver en la siguiente imagen un ejemplo de cómo serían las agrupaciones
(agrupación = 2) y las selecciones de los datos para luego ser exportados a otro
archivo.
49
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Figura 4: Seleccionamos los datos necesarios y los agrupamos
En el caso de que se desee observar más detenidamente, tenemos a continuación
el pseudocodigo que lo explica de manera más detallada como se filtra y exporta
los datos.
Inicio
listaAtributos // lista de atributos (aunque aquí lo trataremos como array en vez de lista)
listaValores // lista de lista de valores (aunque aquí lo trataremos como array de array en vez de lista de lista)
agrupacion // número que indica agrupación que se ha seleccionado al filtrar
arrayAtribSelect // array que contiene los números de las posiciones de los atributos que SI se han exportado
Para i0 hasta tam(listaValores) en ii+agrupacion hacer
Para j0 hasta tam(arrayAtribSelect) en jj+1 hacer
exportarArchivo(agruparValores(arrayAtribSelect[j],i))
Fin
Fin
Fin
Programa agruparValores(posicion, línea)
Var res
Si listaAtributos[posicion] contiene “x” o “T” Entonces
ressacarUltimoMenosPrimero(posicion,línea)
Si no, Si listaAtributos[posicion] contiene "@attribute continuousClass numeric"
Entonces
ressacarMaximo(posicion,línea)
Si no
ressacarPromedio(posicion,línea)
FinSi
Devuelve res
FinPrograma
50
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Programa sacarUltimoMenosPrimero(posicion,línea)
Var primero listaValores[linea][posicion]
Var ultimo, res
Var entra false
Para k1 hasta k >= agrupacion OR línea+k >= tam(listaValores) en kk+1 hacer
entratrue
ultimo listaValores[línea+k][posicion]
Fin
Si entra = true Entonces
res ultimo-primero
Sino
res primero
FinSi
Devuelve res
FinPrograma
Programa sacarMaximo(posicion,línea)
Var res listaValores[linea][posicion]
Var maximo
Para k1 hasta k >= agrupacion OR línea+k >= tam(listaValores) en kk+1 hacer
maximo listaValores[línea+k][posicion]
Si res < maximo Entonces
resmaximo
FinSi
Fin
Devuelve res
FinPrograma
Programa sacarPromedio(posicion,línea)
Var res0
Para k0 hasta k >= agrupacion OR línea+k >= tam(listaValores) en kk+1 hacer
res res + listaValores[línea+k][posicion]
Fin
resres / k
Devuelve res
FinPrograma
4.2.2. Clustering
1º PASO:
Con la ayuda de la librería de Weka carga el archivo que queremos clusterizar, crea una
instancia, crea el algoritmo a aplicar, en este caso el algoritmo SimpleKMeans, le
asignamos el número de cluster a realizar y luego se realiza el clustering.
51
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
2º PASO:
Una vez realizado solo queda exportarlo a un archivo.
Para ello tenemos que pasar todos los atributos más el atributo del cluster (ejemplo:
“@attribute cluster {0,1,2}”). Luego añadimos los datos línea a línea, y por cada línea
agregamos al final de la misma el número del cluster que se ha generado en el paso previo.
En la siguiente imagen podemos observar un fragmento de un archivo arff una vez ya
clusterizado.
Figura 5: Archivo ARFF ya clusterizado
4.2.3. Estadísticas
Hay dos formas diferentes de realizar las estadísticas de un fichero “arff” que se encuentra
ya filtrado y clusterizado por el programa. A continuación se detalla el funcionamiento
de cada una, dependiendo si desea mostrar la mejor estadística o estadísticas con una W
fija.
4.2.3.1. Con tamaño de W estático
PASO 1:
Con un bucle vamos tratando línea a línea, de tal forma que solamente necesitamos los
dos últimos valores correspondientes a los atributos “ContinuousClass” y “Cluster”. Al
ser la W fija se hacen grupos del tamaño elegido en la W, siendo la combinación de W
los clusters que se encuentran dentro del grupo, y el ContinuousClass elegido es el último
del grupo y una vez obtenido los datos realizamos el paso 2, esto se repite hasta que
termina el bucle. Por ejemplo, podemos ver en la siguiente imagen que con una W de 3,
cogemos los valores del atributo “cluster” de la primera, segunda y tercera fila (en ese
orden), siendo esto la combinación de W, y también cogemos el valor del atributo
52
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
“ContinuousClass” de la tercera fila, de esta forma, se va repitiendo con todos los
registros/líneas del fichero ARFF.
Figura 6: Extraer resultados del archivo ARFF
PASO 2:
Una vez que tenemos la combinación de W y el ContinuousClass, tenemos que guardarlo.
Para ello necesitamos una lista donde se irá guardando las diferentes combinaciones,
cuantas veces se repiten en el archivo (ocurrencias) y de estas ocurrencias, cuantas veces
el valor del ContinuousClass supera o no a la M seleccionada en la fase de filtrado
(aciertos).
Figura 7: [Combinación] aciertos / ocurrencias
PASO 3:
Una vez hecho el paso 1 (y por lo tanto el paso 2, ya que está incluido en el paso 1)
tendremos una lista con las diferentes combinaciones de W que contiene el archivo,
solamente tendremos que ordenarlas, para ello el orden es según la siguiente fórmula:
𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 = 𝑎𝑐𝑖𝑒𝑟𝑡𝑜𝑠
𝑜𝑐𝑢𝑟𝑟𝑒𝑛𝑐𝑖𝑎𝑠
De tal forma que el orden debe ser decreciente según el resultado.
53
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
4.2.3.2. Con tamaño de W dinámico
Para esto necesitaremos un array de árboles, dicho array será del tamaño del número de
clusters que se haya indicado en cuando se realizó el clustering.
PASO 1:
Primero, tenemos que montar los árboles, es decir, crear tantos árboles como clusters
haya, y después cada árbol debe estar completado con las diferentes combinaciones
posibles, tal y como podemos ver en la siguiente imagen, suponiendo que el número de
cluster es 2.
Figura 8: Montar los árboles
Como podemos ver en la imagen anterior cada nodo contiene la combinación W y el
número de aciertos y de ocurrencias (aciertos/ocurrencias), hablaremos posteriormente
sobre esto.
PASO 2:
Segundo, tenemos que calcular los valores de los árboles, es decir, completar los aciertos
y ocurrencias de cada combinación de W. Para realizar este paso tenemos que tratar cada
nodo y buscar cuantas veces se encuentra la combinación de W en el archivo ARFF,
entonces si se encuentra hay que incrementar la ocurrencia y si la M (continuousClass)
supera la M indicada en el filtrado, también se incrementa el acierto.
Figura 9: Cálculo de valores (I)
54
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Como podemos ver en el ejemplo de la imagen anterior, en el archivo ARFF se ha
encontrado 4 veces la combinación de W [101] y de estas 4, solo 3 han superado la M en
el filtrado, por lo tanto se guardará que dicha combinación de W tiene 3 aciertos y 4
ocurrencias.
Una vez hagamos esto con todos los nodos de todos los árboles, tendremos algo similar a
la siguiente imagen.
Figura 10: Cálculo de valores (II)
PASO 3:
A continuación debemos elegir el mejor nodo de cada árbol, que serán aquellos que
tengan el número más alto al dividir los aciertos entre las ocurrencias.
Para ello recorremos el árbol de forma Preorder (padre, hijo izquierda, hijo derecha),
obteniendo los mejores nodos, tal y como podemos ver en el ejemplo de la siguiente
imagen.
Figura 11: Elegir mejores nodos (I)
55
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
PASO 4:
Luego de haber seleccionado los mejores nodos hay que comprobar que una combinación
no exista dentro de otra. En este ejemplo que estamos realizando la combinación [00] se
encuentra dentro de la combinación [100], por lo tanto se elimina el nodo con la
combinación [100] y se vuelve al paso 3 para elegir mejores nodos otra vez, así hasta que
al final no exista ninguna combinación dentro de otra.
Figura 12: Elegir mejores nodos (II)
Una vez hecho esto, tendremos una lista de las diferentes combinaciones de W que
contiene el archivo, solamente tendremos que ordenarlas, para ello el orden es según la
siguiente fórmula:
𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 = 𝑎𝑐𝑖𝑒𝑟𝑡𝑜𝑠
𝑜𝑐𝑢𝑟𝑟𝑒𝑛𝑐𝑖𝑎𝑠
De tal forma que el orden debe ser decreciente según el resultado.
En el caso de que se desee observar más detenidamente, tenemos a continuación el
pseudocodigo que lo explica de manera más detallada como se extraen las estadísticas del
archivo ARFF ya filtrado y clusterizado.
56
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Inicio
contador // contador especial cuya secuencia depende del número de cluster (ejemplo: nº cluster=3, secuencia:
0,1,2,00,01,02,10,11,12,20,21,22,000,001,002,…,222)
arrayArboles // array de árboles, cada posición del array contiene un árbol, el tamaño del array depende del número de cluster
numeroCluster // número de cluster que tiene el archivo
listaValores // lista de lista de valores (aunque aquí lo trataremos como array de array en vez de lista de lista)
listaResultado // lista de datos que contiene todos los datos de combinacionW (aunque aquí lo trataremos como array de datos
en vez de lista de datos)
valorM // valor de M predefinida en la fase del filtrado
montarArboles(numeroCluster)
calcularValoresDeArboles(valorM)
Var existe true
Mientras existe=true hacer
elegirMejoresNodos()
existe existeSecuenciaDentroDeOtra()
FinMientras
Fin
57
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Programa montarArboles(numeroCluster)
Var combinacionW, numero, arbol, nodoNuevo, nodoPadre, datoPadre
Mientras puedoIncrementar(contador) hacer
Contador.incremento()
combinacionWcontador.DevolverCombinacion()
numeroPrimerCaracter(combinacionW)
Si longitud(combinacionW) = 1 Entonces
nodoNuevo crearNodo(crearDato(combinacionW))
arrayArboles[numero] crearArbol(nodoNuevo)
Sino
arbolarrayArboles[numero]
nodoNuevocrearNodo(crearDato(combinacionW))
datoPadrecrearDato(todoMenosUltimoCaracter(combinacionW))
nodoPadreencontrarNodo(arbol,datoPadre)
anadirNodo(nodoPadre,nodoNuevo) // añade nodoNuevo como hijo del nodoPadre
FinSi
FinMientras
FinPrograma
Programa calcularValoresDeArboles(valorM)
Var listaNodos
Para i0 hasta tam(arrayArbol) en ii+1 hacer
listaNodosconvertirArbolEnLista(arrayArbol[i])
Para j0 hasta tam(listaNodos) en jj+1 hacer
rellenarDatosDelNodo(devolverDatoDelNodo(nodo),valorM)
Fin
Fin
FinPrograma
58
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Programa rellenarDatosDelNodo(dato,valorM)
Recorre toda la lista de lista de valores (llamada: listaValores) en busca de la combinación de W
que contenga el dato, y si lo encuentra, comprueba si supera el valor de M indicado como
parámetro de entrada, en caso de que lo supere o iguale se apunta en el dato que ha habido una
ocurrencia y un acierto, sino solo se apunta en el dato que ha habido una ocurrencia.
Una vez que termine el bucle tendremos en el dato guardado cuantas veces se ha repetido esa
combinación de W y cuantas han superado o igualado el valor de M indicado.
FinPrograma
Programa elegirMejoresNodos()
vaciar(listaResultado)
Var averageMejor,averageAux
Var datoMejor,datoAux
Var listaNodos
Var listaDatos
Para i0 hasta tam(arrayArboles) en ii+1 hacer
averageMejor0
datoMejornull
listaNodosconvertirArbolEnLista(arraArboles[i])
Para j0 hasta tam(listaNodos) en jj+1 hacer
datoAuxsacarDatoDelNodo(listaNodos[j])
vaciar(listaElegida)
agregarDatoALista(listaElegida,datoAux)
averageAuxcalcularAverage(listaElegida)
Si averageAux>averageMejor Entonces
datoMejordatoAux
averageMejoraverageAux
FinSi
Fin
agregarDatoALista(listaResultado,datoMejor)
Fin
FinPrograma
59
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Programa existeSecuenciaDentroDeOtra()
Var existefalse
Var datoA,datoB
Var nodo,nodoPadre
Para i0 hasta tam(listaResultado) OR existe=true en ii+1 hasta
datoAlistaResultado[i]
Para ji+1 hasta tam(listaResultado) OR existe=true en jj+1 hasta
datoBlistaResultado[j]
Si contiene(datoA,datoB) Entonces // si datoA contiene a datoB
existetrue
nodoencontrar(arrayArboles[i],datoA) // devuelve el nodo que
contenga ese dato en el árbol indicado
nodoPadrepadreDelNodo(nodo)
eliminarNodoHijoDelPadre(nodoPadre,nodo) // elimina el nodo del
nodo padre
Sino, Si contiene(datoB,datoA) Entonces // si datoB contiene a datoA
existetrue
nodoencontrar(arrayArboles[j],datoB)
nodoPadrepadreDelNodo(nodo)
eliminarNodoHijoDelPadre(nodoPadre,nodo)
FinSi
Fin
Fin
FinPrograma
60
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
4.2.3.3. Calcular mejor resultado
Una vez obtenido las diferentes combinaciones de W tendremos que averiguar cuál
combinación o conjunto de combinaciones es mejor. Para ello disponemos de
combinaciones de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones
posibles que pueden hacerse con los m elementos de forma que:
- No entran todos los elementos.
- No importa el orden.
- No se repiten los elementos.
También podemos calcular las combinaciones mediante factoriales:
Gracias a esta combinación matemática la usaremos para realizar todas las posibles
combinaciones en la lista de las diferentes combinaciones de W que se ha debido
almacenar previamente.
Con esto conseguiremos obtener la mejor combinación de W o un conjunto de
combinaciones de W.
Figura 13: Conjunto de combinaciones de W seleccionado
En la imagen anterior podemos ver la lista de las diferentes combinaciones de W y
podemos observar que se encuentran seleccionados solamente aquellos cuyo conjunto
proporciona la mejor media, en este ejemplo la mejor media es 0.65, también podemos
ver otros cálculos de dicho conjunto, como por ejemplo la sensibilidad, especificidad,
PPV, NPV, TP, TN, FP, FN.
61
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
5. Interfaz gráfica y resultados
5.1. Interfaz gráfica
A continuación vamos a describir los pasos para saber cómo usar el programa.
Primeramente tenemos que saber que hay dos modalidades, modo manual y automático,
en el caso de que el usuario quiera obtener los mejores resultados del archivo cargado
seleccionaría el modo automático, por otro lado, en el caso de que el usuario quiera
observar el resultado con unos parámetros en concreto, debe usar el modo manual.
Para cambiar de modo solamente nos tenemos que dirigir a la barra de herramientas y
seleccionar en “modo”, después podemos elegir que modo deseamos, tal y como podemos
ver en la siguiente imagen.
Figura 14: Elegir modo
5.1.1. Modo automático
Al ejecutar el programa aparece la siguiente pantalla correspondiente al modo automático.
Figura 15: Modo automático – parte 1
Como podemos ver en la imagen anterior lo primero que debemos hacer es seleccionar el
archivo (.arff) para cargarlo, después de esto seleccionamos el número de los mejores
resultados que quieres mostrar (1-24 resultados diferentes), lo recomendado es establecer
62
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
24, de esta forma podrá ver las diferentes mejores opciones que puede ofrecer el
programa, de modo que el usuario puede visualizar cada una de ellas.
Una vez elegido el número de resultados a mostrar pulsamos sobre el botón “Mostrar
estadísticas” y esperamos un tiempo mientras que realiza el filtrado, clusterizado y extrae
las estadísticas.
Figura 16: Modo automático – parte 2
Como podemos ver en la imagen anterior una vez que realice las estadísticas mostrará la
ruta de los diferentes resultados y su media de probabilidad.
Para ver cada archivo se puede realizar de dos formas diferentes:
63
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
FORMA SIMPLE:
Puedes pulsar sobre el botón “Seleccione un archivo estadístico” y seleccionad dicho
archivo, para después visualizarlo, tal y como se puede ver en la siguiente imagen con un
archivo de ejemplo.
Figura 17: Modo simple de visualizado
64
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
FORMA COMPLEJA:
Para visualizar el archivo en modo complejo debemos cambiar al modo manual e irnos a
la pestaña “Predicciones” y por último seleccionar el botón “Seleccione un archivo
estadístico”, donde cargara los datos, mostrándonos más información sobre dicho
archivo.
En la imagen de abajo podemos observar que a la izquierda se encuentra los diferentes
registros/líneas donde cada uno hace referencia a una secuencia y en dicha secuencia
podemos saber cuántas veces se repite y cuantas veces sobrepasa la magnitud (M)
indicada en el filtrado. Y al seleccionar algunos de ellos y pulsar sobre el botón “Calcular”
nos mostrará la información de aquellos registros/líneas que hayamos seleccionado.
Figura 18: Modo complejo de visualizado
65
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
5.1.2. Modo manual
Ahora mostraremos los pasos a ejecutar en el caso del modo manual. Este modo es más
complejo pero también podemos obtener los resultados con unos parámetros en concreto.
1º FILTRADO DATOS
Figura 19: Modo complejo. Filtrado
En primer lugar seleccionaremos el archivo (.arff) que deseemos cargar en el programa.
En segundo lugar se cargarán las diferentes magnitudes (M) con las que trata el archivo,
donde tenemos que seleccionar la magnitud mínima que deseemos predecir, también
tenemos que decidir el número de agrupaciones, desde 1 hasta 7(si elegimos 1 no habrá
agrupaciones).
Por último, una vez decididos los parámetros de entrada pulsaremos sobre el botón
“Aplicar Filtro”, donde se aplicará el filtro y pasaremos automáticamente al siguiente
paso, al igual que automáticamente se mostrará cargado el archivo (.arff) que se ha
generado al filtrarlo.
2º CLUSTERIZAR DATOS
Figura 20: Modo complejo. Clusterizado
66
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Primeramente seleccionaremos el archivo (.arff) ya filtrado para cargarlo, solo en el caso
de que no se encuentre cargado, pulsando sobre el botón “Seleccione un archivo filtrado”.
Segundo elegiremos el número de cluster que deseemos para aplicárselo al algoritmo
“SimpleKMeans”. Después de elegir el parámetro de entrada pulsamos sobre el botón
“Aplicar Clustering”. Y pasaremos automáticamente al siguiente paso, al igual que
automáticamente se mostrará cargado el archivo (.arff) que se ha generado al
clusterizarlo.
3º ESTADÍSTICAS DE LOS DATOS
Figura 21: Modo complejo. Estadísticas
Para comenzar seleccionaremos el archivo para cargarlo pulsando sobre el botón
“Seleccione un archivo clusterizado”, en el caso de que no se encuentre ya cargado,
teniendo en cuenta que dicho archivo debe estar previamente filtrado y clusterizado.
A continuación elegimos el tamaño fijo de W, teniendo en cuenta que la W hace
referencia al tamaño de la secuencia (ejemplo: W= 3, secuencia [X, X, X], siendo X
cualquier número), pudiendo ser entre 1 y 7 el tamaño de la W.
También podemos elegir la opción “mejor” del tamaño de la W, al seleccionarlo
estaríamos buscando las mejores combinaciones sin establecer un número fijo del tamaño
de W.
Una vez elegido el parámetro de entrada, pulsamos sobre el botón “Mostrar Estadísticas”.
Y pasaremos automáticamente al siguiente paso, al igual que automáticamente se
mostrará cargado el archivo (.txt) que se ha generado al aplicar las estadísticas.
67
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
4º PREDICCIONES
En esta etapa veremos detalladamente las secuencias escogidas y la mejor selección que
se ha aplicado de entre las secuencias para obtener la mejor media.
Figura 22: Modo complejo. Predicciones
Como podemos ver en la imagen anterior, lo primero que hay que hacer es seleccionar el
archivo para cargarlo pulsando sobre el botón “Seleccione un archivo estadístico”, en el
caso de que no se encuentre ya cargado, teniendo en cuenta que dicho archivo (.txt) debe
contener los datos estadísticos que se realizó en la pestaña previa.
Una vez cargado dicho archivo mostrará a la izquierda las diferentes secuencias y estará
seleccionado por defecto la mejor combinación de entre dichas secuencias mostrando su
respectivo cálculo, no obstante si el usuario lo desea puede cambiar dicha selección y
luego pulsar sobre el botón “Calcular” para ver los resultados del mismo.
68
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
5.2. Resultados
A continuación vamos a mostrar una imagen por cada ciudad con la que se ha trabajado
y una breve descripción, dicha imagen contendrá los mejores resultados que se pueda
obtener, es decir, aquellos que tengan la mejor media.
5.2.1. Resultados Talca
A continuación se mostrará en la siguiente imagen los mejores resultados obtenidos con
los datos de la ciudad de Talca.
Figura 23: Resultados Talca
Como podemos ver en la imagen anterior, se muestra uno de los mejores resultados que
se han obtenido al ejecutar el software en modo automático con el archivo que contiene
datos de la ciudad de Talca, por lo que debemos tener en cuenta que en este resultado
tenemos una agrupación de 6 registros (A=6), el exigir un mínimo de magnitud de 4.8
(M=4.8), realizar un clustering con 5 clusters (K=5) y un tamaño de W no fijo (W=0), de
ese modo se obtiene la mejor combinación sin importar el tamaño de W.
Para empezar podemos observar que tenemos 19 ocurrencias, esto quiere decir que
existen 19 registros en el archivo que se ha tratado, después de haberse filtrado. También
podemos observar que solamente existen 2 aciertos, por lo tanto sabemos que solamente
2 de estos registros superan o igualan a la magnitud que se ha aplicado en el filtrado
(M=4.8).
Al observar la parte lateral izquierda de la imagen podemos ver una lista de
combinaciones de W con sus aciertos y ocurrencias de cada una de ellas.
La combinación de W es uno o varios registros sucedidos en el tiempo que dan lugar a
una secuencia determinada, gracias a esta secuencia tenemos un patrón, por lo tanto
podemos decir que una combinación de W es un patrón.
69
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Una vez que ya tenemos los diferentes patrones (por ejemplo: [0] [00] [01] [02] [1] [10]
[11] [12] [2] [20] [21] [22]) solamente tenemos que averiguar cuantas veces se repite cada
patrón en el archivo ARFF que debe estar previamente filtrado y clusterizado.
Las ocurrencias son el número de veces que aparece dicho patrón en el archivo ARFF y
los aciertos son el número de veces que dicho patrón tiene una magnitud (M) igual o
superior a la magnitud establecida en el filtrado (M=4.8), por lo tanto podemos decir que
dicho patrón se ha repetido m veces (ocurrencias) y de estas hemos acertado n veces
(aciertos).
También podemos observar que en la lista de combinaciones de W que se ha encontrado,
hemos seleccionado dentro de la misma la mejor combinación de W o el mejor conjunto
de combinaciones de W. Para realizar esta selección hemos realizado unas combinaciones
matemáticas de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones posibles
que pueden hacerse con los m elementos, teniendo en cuenta que se han realizado todas
las combinaciones posibles con la n=1 hasta n=m-1 para obtener el mejor conjunto de
combinaciones de W.
Con cada grupo que se formaba (n) se realizaba unos cálculos sobre estos (TP, TN, FP,
FN, especificidad, sensibilidad, PPV, NPV) que daban lugar a la media, a través de la
cual se averiguaba si dicho grupo es el mejor conjunto de combinaciones de W.
Gracias a dicha interfaz gráfica establecida en el modo manual podemos seleccionar las
combinaciones de W que deseemos para posteriormente pulsar sobre el botón Calcular y
mostrar todos sus cálculos, de ese modo el usuario puede comprobar que la selección que
aparece por defecto es el mejor conjunto de combinaciones de W.
5.2.2. Resultados Pichilemu
A continuación se mostrará en la siguiente imagen los mejores resultados obtenidos con
los datos de la ciudad de Pichilemu.
Figura 24: Resultados Pichilemu
70
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Como podemos ver en la imagen anterior, se muestra uno de los mejores resultados que
se han obtenido al ejecutar el software en modo automático con el archivo que contiene
datos de la ciudad de Pichilemu, por lo que debemos tener en cuenta que en este resultado
tenemos una agrupación de 5 registros (A=5), el exigir un mínimo de magnitud de 3.8
(M=3.8), realizar un clustering con 3 clusters (K=3) y un tamaño de W no fijo (W=0), de
ese modo se obtiene la mejor combinación sin importar el tamaño de W.
Para empezar podemos observar que tenemos 22 ocurrencias, esto quiere decir que
existen 22 registros en el archivo que se ha tratado, después de haberse filtrado. También
podemos observar que solamente existen 9 aciertos, por lo tanto sabemos que solamente
9 de estos registros superan o igualan a la magnitud que se ha aplicado en el filtrado
(M=3.8).
Al observar la parte lateral izquierda de la imagen podemos ver una lista de
combinaciones de W con sus aciertos y ocurrencias de cada una de ellas.
La combinación de W es uno o varios registros sucedidos en el tiempo que dan lugar a
una secuencia determinada, gracias a esta secuencia tenemos un patrón, por lo tanto
podemos decir que una combinación de W es un patrón.
Una vez que ya tenemos los diferentes patrones (por ejemplo: [0] [00] [01] [02] [1] [10]
[11] [12] [2] [20] [21] [22]) solamente tenemos que averiguar cuantas veces se repite cada
patrón en el archivo ARFF que debe estar previamente filtrado y clusterizado.
Las ocurrencias son el número de veces que aparece dicho patrón en el archivo ARFF y
los aciertos son el número de veces que dicho patrón tiene una magnitud (M) igual o
superior a la magnitud establecida en el filtrado (M=3.8), por lo tanto podemos decir que
dicho patrón se ha repetido m veces (ocurrencias) y de estas hemos acertado n veces
(aciertos).
También podemos observar que en la lista de combinaciones de W que se ha encontrado,
hemos seleccionado dentro de la misma la mejor combinación de W o el mejor conjunto
de combinaciones de W. Para realizar esta selección hemos realizado unas combinaciones
matemáticas de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones posibles
que pueden hacerse con los m elementos, teniendo en cuenta que se han realizado todas
las combinaciones posibles con la n=1 hasta n=m-1 para obtener el mejor conjunto de
combinaciones de W.
Con cada grupo que se formaba (n) se realizaba unos cálculos sobre estos (TP, TN, FP,
FN, especificidad, sensibilidad, PPV, NPV) que daban lugar a la media, a través de la
cual se averiguaba si dicho grupo es el mejor conjunto de combinaciones de W.
Gracias a dicha interfaz gráfica establecida en el modo manual podemos seleccionar las
combinaciones de W que deseemos para posteriormente pulsar sobre el botón Calcular y
mostrar todos sus cálculos, de ese modo el usuario puede comprobar que la selección que
aparece por defecto es el mejor conjunto de combinaciones de W.
71
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
5.2.3. Resultados Santiago
A continuación se mostrará en la siguiente imagen los mejores resultados obtenidos con
los datos de la ciudad de Santiago.
Figura 25: Resultados Santiago
Como podemos ver en la imagen anterior, se muestra uno de los mejores resultados que
se han obtenido al ejecutar el software en modo automático con el archivo que contiene
datos de la ciudad de Santiago, por lo que debemos tener en cuenta que en este resultado
tenemos una agrupación de 5 registros (A=5), el exigir un mínimo de magnitud de 3.9
(M=3.9), realizar un clustering con 5 clusters (K=5) y un tamaño de W no fijo (W=0), de
ese modo se obtiene la mejor combinación sin importar el tamaño de W.
Para empezar podemos observar que tenemos 28 ocurrencias, esto quiere decir que
existen 28 registros en el archivo que se ha tratado, después de haberse filtrado. También
podemos observar que solamente existen 9 aciertos, por lo tanto sabemos que solamente
9 de estos registros superan o igualan a la magnitud que se ha aplicado en el filtrado
(M=3.9).
Al observar la parte lateral izquierda de la imagen podemos ver una lista de
combinaciones de W con sus aciertos y ocurrencias de cada una de ellas.
La combinación de W es uno o varios registros sucedidos en el tiempo que dan lugar a
una secuencia determinada, gracias a esta secuencia tenemos un patrón, por lo tanto
podemos decir que una combinación de W es un patrón.
Una vez que ya tenemos los diferentes patrones (por ejemplo: [0] [00] [01] [02] [1] [10]
[11] [12] [2] [20] [21] [22]) solamente tenemos que averiguar cuantas veces se repite cada
patrón en el archivo ARFF que debe estar previamente filtrado y clusterizado.
Las ocurrencias son el número de veces que aparece dicho patrón en el archivo ARFF y
los aciertos son el número de veces que dicho patrón tiene una magnitud (M) igual o
72
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
superior a la magnitud establecida en el filtrado (M=3.9), por lo tanto podemos decir que
dicho patrón se ha repetido m veces (ocurrencias) y de estas hemos acertado n veces
(aciertos).
También podemos observar que en la lista de combinaciones de W que se ha encontrado,
hemos seleccionado dentro de la misma la mejor combinación de W o el mejor conjunto
de combinaciones de W. Para realizar esta selección hemos realizado unas combinaciones
matemáticas de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones posibles
que pueden hacerse con los m elementos, teniendo en cuenta que se han realizado todas
las combinaciones posibles con la n=1 hasta n=m-1 para obtener el mejor conjunto de
combinaciones de W.
Con cada grupo que se formaba (n) se realizaba unos cálculos sobre estos (TP, TN, FP,
FN, especificidad, sensibilidad, PPV, NPV) que daban lugar a la media, a través de la
cual se averiguaba si dicho grupo es el mejor conjunto de combinaciones de W.
Gracias a dicha interfaz gráfica establecida en el modo manual podemos seleccionar las
combinaciones de W que deseemos para posteriormente pulsar sobre el botón Calcular y
mostrar todos sus cálculos, de ese modo el usuario puede comprobar que la selección que
aparece por defecto es el mejor conjunto de combinaciones de W.
5.2.4. Resultados Valparaíso
A continuación se mostrará en la siguiente imagen los mejores resultados obtenidos con
los datos de la ciudad de Valparaíso.
Figura 26: Resultados Valparaíso
Como podemos ver en la imagen anterior, se muestra uno de los mejores resultados que
se han obtenido al ejecutar el software en modo automático con el archivo que contiene
73
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
datos de la ciudad de Valparaíso, por lo que debemos tener en cuenta que en este resultado
tenemos una agrupación de 3 registros (A=3), el exigir un mínimo de magnitud de 4.2
(M=4.2), realizar un clustering con 4 clusters (K=4) y un tamaño de W no fijo (W=0), de
ese modo se obtiene la mejor combinación sin importar el tamaño de W.
Para empezar podemos observar que tenemos 54 ocurrencias, esto quiere decir que
existen 54 registros en el archivo que se ha tratado, después de haberse filtrado. También
podemos observar que solamente existen 14 aciertos, por lo tanto sabemos que solamente
14 de estos registros superan o igualan a la magnitud que se ha aplicado en el filtrado
(M=4.2).
Al observar la parte lateral izquierda de la imagen podemos ver una lista de
combinaciones de W con sus aciertos y ocurrencias de cada una de ellas.
La combinación de W es uno o varios registros sucedidos en el tiempo que dan lugar a
una secuencia determinada, gracias a esta secuencia tenemos un patrón, por lo tanto
podemos decir que una combinación de W es un patrón.
Una vez que ya tenemos los diferentes patrones (por ejemplo: [0] [00] [01] [02] [1] [10]
[11] [12] [2] [20] [21] [22]) solamente tenemos que averiguar cuantas veces se repite cada
patrón en el archivo ARFF que debe estar previamente filtrado y clusterizado.
Las ocurrencias son el número de veces que aparece dicho patrón en el archivo ARFF y
los aciertos son el número de veces que dicho patrón tiene una magnitud (M) igual o
superior a la magnitud establecida en el filtrado (M=4.2), por lo tanto podemos decir que
dicho patrón se ha repetido m veces (ocurrencias) y de estas hemos acertado n veces
(aciertos).
También podemos observar que en la lista de combinaciones de W que se ha encontrado,
hemos seleccionado dentro de la misma la mejor combinación de W o el mejor conjunto
de combinaciones de W. Para realizar esta selección hemos realizado unas combinaciones
matemáticas de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones posibles
que pueden hacerse con los m elementos, teniendo en cuenta que se han realizado todas
las combinaciones posibles con la n=1 hasta n=m-1 para obtener el mejor conjunto de
combinaciones de W.
Con cada grupo que se formaba (n) se realizaba unos cálculos sobre estos (TP, TN, FP,
FN, especificidad, sensibilidad, PPV, NPV) que daban lugar a la media, a través de la
cual se averiguaba si dicho grupo es el mejor conjunto de combinaciones de W.
Gracias a dicha interfaz gráfica establecida en el modo manual podemos seleccionar las
combinaciones de W que deseemos para posteriormente pulsar sobre el botón Calcular y
mostrar todos sus cálculos, de ese modo el usuario puede comprobar que la selección que
aparece por defecto es el mejor conjunto de combinaciones de W.
74
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
6. Conclusión
Se ha desarrollado una metaheurística con el objetivo de obtener información valiosa para
predecir terremotos. Este método heurístico resuelve el problema computacional usando
los parámetros dados por el usuario, con la ayuda de procedimientos genéricos.
La metaheurística es aplicada a problemas que disponen de una heurística determinada
que tenga una respuesta satisfactoria.
Para realizar este software que predice terremotos nos hemos centrado en uno de los
países que suele haber más seísmos y de grandes magnitudes, como es el caso de Chile,
concretamente en cuatro ciudades, que son las siguientes:
- Santiago
- Valparaíso
- Talca
- Pichilemu
Para ello tenemos cuatro archivos ARFF, uno por cada ciudad, donde hay tanta cantidad
de datos que es imposible obtener una información valiosa de dichos datos. Por ello es
necesario el uso del software que se ha desarrollado con la interfaz gráfica de Java, que
es una interfaz gráfica sencilla, amigable e intuitiva para que el usuario pueda manipularlo
fácilmente.
Para extraer información valiosa de dichos datos, estos datos deben pasar por un
procedimiento, donde primero se realizará un preprocesado, después se le aplicará un
algoritmo y por última se extraerá la información para finalmente el usuario pueda
visualizarla y manipular dicha información.
PASO 1: Preprocesamiento
Se selecciona a partir de qué magnitud se desea predecir, puesto que lo realmente
importante es predecir terremotos de gran magnitud. También se selecciona la agrupación
que se desea hacer, es decir, se agrupará los registros para que de este modo sea concentrar
varios registros en uno solo y tener una menor cantidad de registros que manipular
después sin llegar a perder información importante.
También hay que tener en cuenta que al seleccionar la magnitud, los datos referentes a
otras magnitudes se eliminarán, por lo tanto se eliminarán muchos atributos que no son
necesarios para el paso posterior.
PASO 2: Algoritmo
Se realizará el algoritmo Simple K-means que se encuentra en la librería Weka, siendo la
variable K, aquella que seleccione el usuario (Entre 2 y 5) de ese modo el número de
clusters es el número de K.
Una vez aplicado el algoritmo, se guardará dichos resultados como un atributo más del
archivo de modo que pueda ser utilizado en el siguiente paso.
75
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
PASO 3: Estadísticas
Una vez ya preprocesado y clusterizado los datos, es hora de interpretar el contenido del
archivo, para ello es necesario especificar una W. La W es la combinación o secuencia
del cluster donde se encuentra uno o varios registros, dicha combinación o secuencia es
considerado un patrón, también junto con este patrón viene dado la magnitud del
terremoto registrado, donde solamente nos interesa saber la magnitud del último registro
de la combinación.
Si seleccionamos un número de la W, estamos seleccionando un tamaño estático de la
combinación, es decir, si seleccionamos 3, solamente obtendrá las combinaciones de 3 en
3.
Sin embargo, si seleccionamos mejor se creará tantos árboles n-arios como clusters haya,
y en cada árbol se creará todas las posibles opciones de combinación (por ejemplo: [0]
[00] [01] [02] [1] [10] [11] [12] [2] [20] [21] [22]) siendo de 3 el tamaño máximo de
dichas combinaciones, para que de ese modo el árbol no sea demasiado grande. Una vez
creado solo tenemos que mirar cuantas veces se repite cada combinación en el archivo
(que se encuentra previamente filtrado y clusterizado) y de entre esas veces que se repita
(ocurrencias) tendremos que saber si la magnitud que se obtiene supera o no a la magnitud
seleccionada en el filtrado que se habrá hecho anteriormente (acierto).
Cuando se haya realizado esto con cada combinación se procederá a elegir la mejor
combinación de cada árbol, que será aquella que tenga el resultado mayor a la hora de
realizar la siguiente operación:
𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 = 𝑎𝑐𝑖𝑒𝑟𝑡𝑜𝑠
𝑜𝑐𝑢𝑟𝑟𝑒𝑛𝑐𝑖𝑎𝑠
Por último tendremos una lista con las mejores combinaciones de cada árbol para después
ser tratada en el último paso.
PASO 4: Predicción
Una vez que ya hemos obtenido la información valiosa, es decir, la lista de
combinaciones, hay que averiguar de entre ellas cuales darán mejores resultados, es decir,
se realizarán cálculos (sensibilidad, especificidad, PPV, NPV, TP, TN, FP, FN) y la media
de la sensibilidad, especificidad, PPV, NPV indicará cuales son los mejores de la lista.
Para ello debemos probar todos con todos, es decir, debemos realizar unas combinaciones
matemáticas de m elementos tomados de n en n (m ≥ n) a todas las agrupaciones posibles
que pueden hacerse con los m elementos, teniendo en cuenta que se debe realizar todas
las combinaciones posibles con la n=1 hasta n=m-1 para obtener el mejor conjunto de
combinaciones de W, dicho conjunto puede estar formado por una combinación, por dos
combinaciones o por todas las combinaciones que hay en la lista de combinaciones.
Con cada grupo que se forma (n) se realiza unos cálculos sobre estos (TP, TN, FP, FN,
especificidad, sensibilidad, PPV, NPV) que darán lugar a la media, a través de la cual se
averiguaba si dicho grupo es el mejor conjunto de combinaciones de W.
76
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Una vez obtenido cuales combinaciones son las mejores de la lista de combinaciones,
entonces serán estos los elegidos los patrones para que pueda llegar a realizar predicciones
con una probabilidad, que será aquella que indique la media de los cálculos.
6.1. Conocimientos aplicados de las asignaturas
Se ha detallado los conocimientos aprendidos que se han aplicado en la realización de
este software y la asignatura a la cual corresponde cada conocimiento.
Tabla 1: Conocimientos aplicados de las asignaturas de primer curso
Primer curso
Fundamentos de la programación Bases de la programación estructurada, como por
ejemplo puede ser bucles, sentencias, variables,
constantes,…
Estadísticas Cálculos estadísticos del software, como puede
ser la combinación de m elementos tomados de n
en n
Programación orientada a objeto Lenguaje de programación Java con el que se
desarrollado el software
Tabla 2: Conocimientos aplicados de las asignaturas de segundo curso
Segundo curso
Algorítmica I Capacidad de desarrollar un algoritmo lo más
eficiente y eficaz posible, de forma que se pueda
reducir su complejidad lo máximo posible
Estructura de datos Conocimientos sobre listas, pilas, colas, árboles y
grafos
Ingeniería del software I Interfaz de Java, llamada Swing y los posibles
patrones que se pueden usar
Algorítmica II Conocimientos en profundidad sobre listas, pilas,
colas, árboles y grafos
Ingeniería del software II Conocimientos sobre cómo realizar el software
antes de iniciar el desarrollo, realizando un
documento explicando lo que se va a realizar y
como se va a realizar, con ayuda de casos de usos,
diagramas, patrones de diseño, arquitectura, …
Sistemas operativos Conocimientos sobre hilos de ejecución y como
se gestionan
77
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Tabla 3: Conocimientos aplicados de las asignaturas de tercer curso
Tercer curso
Sistemas distribuidos Conocimientos en profundidad sobre hilos de
ejecución, sincronización y su correcta
manipulación
Ingeniería de proyecto Conocimientos sobre cómo realizar una
documentación previa al desarrollo para saber lo
que se va a realizar y como se realizará, los
documentos son plan de proyecto, análisis y
diseño
Bioinformática Tratamientos de archivos ARFF que contiene un
microarray, donde debemos extraer información
importante sobre dicho microarray
Minería de datos Tratamiento de archivos ARFF, introducción a
weka, correcto preprocesamiento, tratamiento de
algoritmos como clustering, clasificación,… Por
última extraer la información importante una vez
que se ha ejecutado el/los algoritmo/s
Tabla 4: Conocimientos aplicados de las asignaturas de cuarto curso
Cuarto curso
Calidad Conocimientos a la hora de desarrollar para que
el código sea limpio, claro, sencillo y funcional,
gracias a las tareas de refactorización, pruebas
unitarias, pruebas de integración, inspección de
códigos y métricas usadas
Planificación de proyecto Conocimientos sobre cómo realizar una
documentación para planificar, controlar y
monitorizar un proyecto
Inteligencia artificial Realización de algoritmos que pueden predecir el
futuro basándose en datos obtenidos del pasado,
realizando búsquedas sobre dichos datos
Inteligencia de negocio Conocimientos sobre procesos ETL, minería de
datos, creación de ideas, integración de
información
78
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
7. Referencias
Adeli, H., Panakkat, A., 2009. A probabilistic neural network for earthquake magnitude
prediction. Neural Networks 22, 1018–1024. Akaike, H., 1974. New look at statistical-
model identification. IEEE Transactions on Automatic Control 6, 716–723 AC19.
Aki, K., 1965. Maximum likelihood estimate of b in the formula logN=a−bM and its
confidence limits. Bulletin of the Earthquake Research Institute 43, 237–239.
Akinci, A., 2010.HAZGRIDX: earthquake forecasting model forML≥ 5.0 earthquakes in
Italy based on spatially smoothed seismicity. Annals of Geophysics 53.doi:10.4401/ag-
4811.
Allen, C.R., 1968. The tectonic environments of seismically active and inactive areas
along the San Andreas fault system. In: Dickinson, W.R., Grantz, A. (Eds.), Proceedings
of the Conference on Geologic Problems of the San Andreas Fault System. Geol. Sci.,
11. Stanford Univ. Publ, pp. 70–82.
Alves, E.I., 2006. Earthquake forecasting using neural nets.Nonlinear Dynamics 44.
doi:10.1007/s11071-006-2018-1.Co.
Anderson, J.G., Rockwell, T.K., Agnew, D.C., 1989.Past and possible future earthquakes
of significance to the San Diego region. Earthquake Spectra 5, 299–335.
Arrowsmith, R., McNally, K., Davis, J., 1997. Potential for earthquake rupture and M 7
earthquakes along the Parkfield, Cholame, and Carrizo segments of the San Andreas
Fault. Seismological Research Letters 68, 902–916.
Bakun, W.H., King, G.C.P., Cockerham, R.S., 1986. Seismic slip, aseismic slip, and the
mechanics of repeating earthquakes on the Calaveras fault, California, in Earthquake
Source Mechanics. In: Das, S., Boatwright, J., Schlotz, C.H. (Eds.), Geophys.
Monogr.Ser., vol. 37. AGU, Washington, D.C, pp. 195–208.
R.M., Reasenberg, P.A., Reichle, M.S., Roeloffs, E.A., Shakal, A., Simpson, R.W.,
Waldhauser, F., 2005. Implications for prediction and hazard assessment from the 2004
Parkfield earthquake. Nature 437, 969–974.
Båth, M., 1965. Lateral inhomogeneities in the upper mantle. Tectonophysics 2, 483–514.
Ben-Zion, Y., Lyakhovsky, V., 2002.Accelerated seismic release and related aspects of
seismicity patterns on earthquake faults.Pure and Applied Geophysics 159, 2385–2412.
Biasi, G., Weldon II, R.J., 2006. Estimating surface rupture length and magnitude of
paleoearthquakes from point measurements of rupture displacement. Bulletin of the
Seismological Society of America 96, 1612. doi:10.1785/0120040172.
Biasi, G.P., Weldon II, R.J., Fumal, T.E., Seitz, G.G., 2002. Paleoseismic event dating
and the conditional probability of large earthquakes on the southern San Andreas fault,
California. Bulletin of the Seismological Society of America 92, 2761–2781.
Bowman, D.D., King, G.C.P., 2001.Accelerating seismicity and stress accumulation
before large earthquakes.Geophysical Research Letters 28, 4039–4042.
79
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Brehm, D.J., Braile, L.W., 1998. Intermediate-term earthquake prediction using
precursory events in the New Madrid Seismic Zone. Bulletin of the Seismological Society
of America 88, 564–580.
Bufe, C.G., Varnes, D.J., 1993. Predictive modeling of the seismic cycle of the greater
San Francisco Bay region.Journal of Geophysical Research 98, 9871–9883.
Burnham, K.P., Anderson, D.R., 2002. Model Selection and Multimodel Inference: A
Practical Information-Theoretic Approach. Springer, New York.
Cao, T.Q., Bryant, W.A., Rowshandel, B., Branum, D., Wills, C.J., 2003. The Revised
2002 California Probabilistic Seismic Hazard
Maps.www.conservation.ca.gov/CGS/rghm/psha/fault_parameters/pdf/2002_CA_Hazar
d_Maps.pdf2003.
Cao, T.Q., Petersen, M.D., Frankel, A.D., 2005. Model uncertainties of the 2002 update
of California seismic hazard maps. Bulletin of the Seismological Society of America
95,2040–2057.
Cavallo, E., Powell, A., Becerra, O., 2010. Estimating the direct economic damage of the
earthquake in Haiti. Inter-American Development Bank working paper series, No. IDB-
WP-163.
Cochran, E.S., Vidale, J.E., Tanaka, S., 2004. Earth tides can trigger shallow thrust fault
earthquakes. Science 306, 1164–1166.
Console, R., Murru, M., 2001.A simple and testable model for earthquake clustering.
Journal of Geophysical Research 106, 8,699–8,711.
Console, R., Murru, M., Lombardi, A.M., 2003.Refining earthquake clustering
models.Journal of Geophysical Research 108, 2468.doi:10.1029/2002JB002130.
Console, R., Murru, M., Catalli, F., 2006a.Physical and stochastic models of earthquake
clustering. Tectonophysics 417, 141–153.
Console, R., Rhoades, D.A., Murru, M., Evison, F.F., Papadimitriou, E.E., Karakostas,
V.G., 2006b. Comparative performance of timeinvariant, long-range and short-range
forecasting models on the earthquake catalogue of Greece.Journal of Geophysical
Research 111, B09304.doi:10.1029/2005JB004113.
Cox, D.R., 1972.Regression models and life tables with discussion. Journal of the Royal
Statistical Society, Series B 34, 187–220.
Crampin, S., Gao, Y., 2010. Earthquakes can be stress-forecast. Geophysical Journal
International 180, 1124–1127. doi:10.1111/j.1365-246X.2009.04475.x.
CSEP, d. www.cseptesting.org.
Davison, F., Scholz, C.H., 1985. Frequency-moment distribution of earthquakes in the
Aleutian Arc: a test of the characteristic earthquake model. Bulletin of the Seismological
Society of America 75, 1349–1362.
Dieterich, J., 1994. A constitutive law for rate of earthquake production and its application
to earthquake clustering.Journal of Geophysical Research 99, 2601–2618.
80
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Dieterich, J.H., Cayol, V., Okubo, P., 2002. The use of earthquake rate changes as a stress
meter at Kilauea volcano. Nature 408, 457–460.
DubesR. C. (1993). Handbook of Pattern Recognition and Computer Vision - Cluster
Analysis and Related Issues. World Scientific Publishing Co.
Ebel, J.E., Chambers, D.W., Kafka, A.L., Baglivo, J.A., 2007. Non-Poissonian
earthquake clustering and the hidden Markov model as bases for earthquake forecasting
in California. Seismological Research Letters 78, 57–65.
Ellsworth, W.I., Cole, A.T., 1997. A test of the characteristic earthquake hypothesis for
the San Andreas Fault in central California.Seismological Research Letters 68, 298.
Eneva,M., Ben-Zion, Y., 1997. Techniques and parameters to analyze seismicity patterns
associated with large earthquakes. Journal of Geophysical Research 102, 17,785–17,795.
Evison, F.F., 1977. The precursory earthquake swarm. Physics of the Earth and Planetary
Interiors 15, 19–23.
Evison, F.F., Rhoades, D.A., 1997. The precursory earthquake swarm in New Zealand:
hypothesis tests II. New Zealand Journal of Geology and Geophysics 40, 537–547.
Evison, F.F., Rhoades, D.A., 1999. The precursory earthquake swarm and the inferred
precursory quarm. New Zealand Journal of Geology and Geophysics 42, 229–236.
Evison, F.F., Rhoades, D.A., 2001. Model of long-term seismogenesis.Annali di
Geofisica 44, 81–93.
Evison, F.F., Rhoades, D.A., 2002. Precursory scale increase and long-term
seismogenesis in California and Northern Mexico. Annals of Geophysics 45, 479–495.
Evison, F.F., Rhoades, D.A., 2004. Demarcation and scaling of long-term seismogenesis.
Pure and Applied Geophysics 161, 21–45.
Faenza, L., 2005. Analysis of the spatio-temporal distribution of large earthquakes, Ph.
D. Thesis, Università degli Studi di Bologna, Alma Mater Studiorum, Bologna, Italy
available at: http://hdl.handle.net/2122/.
Faenza, L., Marzocchi, W., 2010. The Proportional Hazard Model as applied to the CSEP
forcasting area in Italy. Annals of Geophysics 53.doi:10.4401/ag-4759.
Faenza, L., Pierdominici, S., 2007.Statistical occurrence analysis and spatio-temporal
distribution of earthquakes in the Apennines Italy. Tectonophysics 439, 13–31.
Faenza, L., Marzocchi, W., Boschi, E., 2003. A nonparametric hazard model to
characterize the spatio-temporal occurrence of large earthquakes; an application to the
Italian catalogue.Geophysical Journal International 155, 521. doi:10.1046/j.1365-
246X.2003.02068.x.
Faenza, L., Marzocchi, W., Lombardi, A.M., Console, R., 2004.Some insights into the
time clustering of large earthquakes in Italy. Annals of Geophysics 47, 1635–1640.
Faenza, L., Marzocchi, W., Serretti, P., Boschi, E., 2008. On the spatio-temporal
distribution of M70.+ worldwide seismicity. Tectonophysics 449, 97–104.
81
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Faenza, L., Hainzl, S., Scherbaum, F., 2009.Statistical analysis of the central-Europe
seismicity. Tectonophysics 470, 195–204.
Fayyad, U. et al. (1996). Advanced in Knowledge Discovery and Data Mining, MIT
Press, MA.
Fayyad U. M., Piatetski-Shapiro G., and Smith P. (1996).From data mining to knowledge
discovery.AAAI-MIT Press.
Field, E.H., 2007. Overview of the Working Group for the Development of Regional
Earthquake Likelihood Models (RELM). Seismological Research Letters 78, 7–16.
Frankel, A., 1995. Mapping seismic hazard in the central and eastern United States.
Seismological Research Letters 66, 8–21.
Frankel, A., Mueller, C., Barnard, T., Perkins, D., Leyendecker, E.V., Dickman, N.,
Hanson, S., Hopper, M., 1996. National seismic-hazard maps; documentation June 1996:
U.S. Geological Survey Open-File Report 96–532, 110 pp.
Frankel, A., Mueller, C., Barnard, T., Perkins, D., Leyendecker, E.V., Dickman, N.,
Hanson, S., Hopper, M., 1997. Seismic hazard maps for Califonia, Nevada and Western
Arizona/Utah. USGS Open-File Report 97–130.
Frankel, A.D., Petersen, M.D., Mueller, C.S., Haller, K.M., Wheeler, R.L., Leyendecker,
E.V., Wesson, R.L., Harmsen, S.C., Cramer, C.H., Perkins, D.M., Rukstales, K.S., 2002.
Documentation for the 2002 update of the national seismic hazard maps.U.S. Geol.
Surv.Open-File Rept. OFR-02-420, 33 pp.
Frohlich, C., Davis, S., 1993. Teleseismic b-values: Or, much ado about 1.0. Journal of
Geophysical Research 98, 631–644.
Gardner, J.K., Knopoff, L., 1974. Is the sequence of earthquakes in southern California
with aftershocks removed Poissonian? Bulletin of the Seismological Society of America
64, 1363–1367.
Geller, R.J., Jackson, D.D., Kagan, Y.Y., Mulargia, F., 1997. Enhanced: earthquakes
cannot be predicted. Science 275, 49–70.
Gerstenberger, M.C., Rhoades, D.A., 2010. New Zealand Earthquake Forecast Testing
Centre. Pure and Applied Geophysics 167, 877–892.
Gerstenberger, M., Wiemer, S., Giardini, D., 2001.A systematic test of the hypothesis that
the b value varies with depth in California. Geophysical Research Letters 28, 57–60.
Gerstenberger, M.C., Wiemer, S., Jones, L.M., Reasenberg, P.A., 2005. Real-time
forecasts of tomorrow's earthquakes in California. Nature 435, 328–331.
Gerstenberger, M.C., Jones, L.M., Wiemer, S., 2007. Short-term aftershock probabilities:
case studies in California. Seismological Research Letters 78, 66–77.
Gibowitz, S. J. (1974). Frequency–magnitude depth and time relations for earthquakes in
Island Arc: North Island, New Zealand. Tectonophysics, 3(3), 283–297.
82
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Grant, L.B., Shearer, P.M., 2004. Activity of the offshore Newport–Inglewood Rose
Canyon Fault Zone, coastal southern California, from relocated microseismicity. Bulletin
of the Seismological Society of America 94, 747–752.
Grant, L.B., Sieh, K., 1994. Paleoseismic evidence of clustered earthquakes on the San
Andreas fault in the Carrizo Plain, California. Journal of Geophysical Research 99, 6819–
6841.
Grossman R. L., HornikM. F., and MeyerG.(2004). Data mining standards initiatives.
Communications of ACM, 45(8):59–61.
Guha S., Rastogi R., and Shim K. (1998). Cure: an efficient data clusteringmethod for
very large databases. ACM-SIGMOD Proceedings of the InternationalConference
Management of Data, pages 73–84.
Gulia, L., Wiemer, S., 2010. The influence of tectonic regimes on the earthquake size
distribution: a case study for Italy. Geophysical Research Letters 37,
L10305.doi:10.1029/2010GL043066.
Gulia, L., Wiemer, S., Schorlemmer, D., 2010. Asperity-based earthquake likelihood
models for Italy. Annals of Geophysics 53.doi:10.4401/ag-4843.
Gutenberg, B., & Richter, C. F. (1942).Earthquake magnitude, intensity, energy and
acceleration. Bulletin of the Seismological Society of America, 2(3), 163–191.
Gutenberg, B., Richter, C.F., 1944. Frequency of earthquakes in California. Bulletin of
the Seismological Society of America 34, 185–188.
Gutenberg, B., & Richter, C. F. (1954).Seismicity of the Earth.Princeton University.
Helmstetter, A., Sornette, D., 2002. Subcritical and supercritical regimes in epidemic
models of earthquake aftershocks.Journal of Geophysical Research
107.doi:10.1029/2001JB001580.
Helmstetter, A., Sornette, D., 2003a. Importance of direct and indirect triggered
seismicity in the ETAS model of seismicity.Geophysical Research Letters 30,
1576.doi:10.1029/2003GL017670.
Helmstetter, A., Sornette, D., 2003b. Predictability in the epidemic-type aftershock
sequence model of interacting triggered seismicity. Journal of Geophysical Research 108,
2482.doi:10.1029/2003JB002485.
Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2005. Importance of small earthquakes for
stress transfers and earthquake triggering.Journal of Geophysical Research
110.doi:10.1029/2004JB003286.
Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2006. Comparison of short-term and
timeindependent earthquake forecast models for southern California. Bulletin of the
Seismological Society of America 96, 90–106.
Helmstetter, A., Kagan, Y.Y., Jackson, D.D., 2007. High-resolution time-independent
grid-based forecast for M≥5 earthquakes in California.Seismological Research Letters 78,
78–86.
83
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Hernández Orallo J., (2004). Introducción a la minería de datos. Prentice-Hall.
Holliday, J.R., Nanjo, K.Z., Tiampo, K.F., Rundle, J.B., Turcotte, D.L., 2005. Earthquake
forecasting and its verification.Nonlinear Processes in Geophysics 12.doi:10.5194/npg-
12-965-2005.
Holliday, J.R., Rundle, J.B., Tiampo, K.F., Klein, W., Donnellan, A., 2006a. Systematic
procedural and sensitivity analysis of the Pattern Informatics method for forecasting large
MN5 earthquake events in southern California. Pure and Applied Geophysics
doi:10.1007/s00024-006-0131-1.
Holliday, J.R., Rundle, J.B., Tiampo, K.F., Turcotte, D., 2006b. Using earthquake
intensities to forecast earthquake occurrence times.Nonlinear Processes inGeophysics 13,
585–593.
Holliday, J.R., Rundle, J.B., Tiampo, Turcotte, D., Klein, W., Tiampo, K.F., Donnellan,
A., 2006c. Space-time clustering and correlations ofmajor earthquakes.Physical Review
Letters 97 238501.
Huang, Q., 2004. Seismicity changes associated with the 2000 earthquake swarm in the
Izu Island region. Journal of Asian Earth Sciences 26, 509–517.
Imoto, M., 1991.Changes in the magnitude frequency b-value prior to large M-
greaterthan-or-equal-to-6.0 earthquakes in Japan. Tectonophysics 193, 311–325.
Imoto, M., Hurukawa, N., Ogata, Y., 1990.Three-dimensional spatial variations of bvalue
in the Kanto area, Japan. Zishin 43, 321–326.
Ishimoto, M., & Iida, K. (1939). Observations sur les seismes enregistres par le
microsismographe construit derniereme. Bulletin Earthquake Research Institute, 17, 443–
478.
Jackson, D.D., Kagan, Y.Y., 1999. Testable earthquake forecasts for 1999. Seismological
Research Letters 70, 393–403.
Jackson, D.D., Kagan, Y.Y., 2006. The 2004 Parkfield earthquake, the 1985 prediction,
and characteristic earthquakes: lessons for the future. Bulletin of the Seismological
Society of America 96.doi:10.1785/012005082.
Jaumé, S.C., Sykes, L.R., 1999.Evolving towards a critical point: a review of accelerating
seismic moment/energy release prior to large and great earthquakes. Pure and Applied
Geophysics 155, 279–306.
Jiménez, A., Tiampo, K.F., Levin, S., Posadas, A., 2005. Testing the persistence in
earthquake catalogs: the Iberian Peninsula. Europhysics Letters. doi:10.1209/epl/i2005-
10383-8.
Jiménez, A., Posadas, A., Tiampo, K.F., 2008. Describing seismic pattern dynamics by
means of Ising cellular automata, nonlinear time series analysis in the
geosciences.Lecture Notes in Earth Sciences. Springer, Berlin, pp. 273–290.
doi:10.1007/978-3- 540-78938-3_12.
84
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Jones, L.M., Molnar, P., 1979. Some characteristics of foreshocks and their possible
relationship to earthquake prediction and premonitory slip on faults.Journal of
Geophysical Research 84.
Jordan, T.H., 2006. Earthquake predictability, brick by brick. Seismological Research
Letters 77, 3–6.
Jordan, T.H., Jones, L.M., 2010. Operational earthquake forecasting: some thoughts on
why and how. Seismological Research Letters 81.
Kafka, A., 2002. Statistical analysis of the hypothesis that seismicity delineates areas
where future large earthquakes are likely to occur in the central and eastern United
States.Seismological Research Letters 73, 990–1001.
Kagan, Y.Y., 1997. Are earthquakes predictable? Geophysical Journal International 131,
505–525.
Kagan, Y.Y., 2002. Aftershock zone scaling.Bulletin of the Seismological Society
ofAmerica 922, 641–655.doi:10.1785/0120010172.
Kagan, Y., 2005. Combined Provisional Southern California Earthquake
Catalog.http://scec.ess.ucla.edu/~ykagan/relm_index.html 2005.
Kagan, Y.Y., Jackson, D.D., 1994. Long-term probabilistic forecasting of earthquakes.
Journal of Geophysical Research 99, 13,685–13,700.
Kagan, Y.Y., Jackson, D.D., 1995. New seismic gap hypothesis: five years after. Journal
of Geophysical Research 100, 3943–3959.
Kagan, Y.Y., Jackson, D.D., 2000. Probabilistic forecasting of earthquakes. Geophysical
Journal International 143, 438–453.
Kalbeisch, J.D., Prentice, R.L., 1980. The Statistical Analysis of Failure Time Data.New-
York, 336 pp.
Kanamori, H., 1981. The nature of seismicity patterns before large earthquakes.
Earthquake Prediction: An International Review, AGU Monograph. AGU, Washington,
D.C, pp. 1–19.
Kanamori, H., Anderson, D.L., 1975. Theoretical basis of some empirical relation in
seismology. Bulletin of the Seismological Society of America 65, 1073–1096.
Kaufman L. and RousseeuwP. J., (1990). Finding groups in Data: an Introduction to
Cluster Analysis. Wiley.
Keilis-Borok, V.I., Shebalin, P.N., Zaliapin, I.V., 2002. Premonitory patterns of
seismicity months before a large earthquake: five case histories in Southern California.
PNAS 99, 16,562–16,567.
Kenneth, P., Burnhaman, K.P., Anderson, D.R., 2002. Model Selection and Multimodel
Inference: A Practical Information–Theoretic Approach. Springer, New York.
King, G.C.P., Bowman, D.D., 2003. The evolution of regional seismicity between large
earthquakes.Journal of Geophysical Research 108.doi:10.1029/2001JB000783.
85
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
King, G.C.P., Stein, R.S., Lin, J., 1994. Static stress changes and the triggering of
earthquakes. Bulletin of the Seismological Society of America 84, 935–953.
Kopanakis I. and Theodoulidis B. (2003).Visual data mining modeling techniquesfor the
visualization of mining outcomes. Journal of Visual Languagesand Computing,
14(6):543–589.
Kossobokov, V.G., 2006a. Quantitative earthquake prediction on global and regional
scales. In: Ismail-Zadosh (Ed.), Recent Geodynamics, Geortsk and Sustainable
Development in the Black Sea to Caspian Sea Region: Proceedings of the International
Workshop, pp. 32–50.
Kossobokov, V.G., 2006b. Testing earthquake prediction methods: the West Pacific
short-term forecast of earthquakes with magnitude MwHRV≥5.8. Tectonophysics 413,
25–31.
Kossobokov,V.G.,Romashkova, L.L., Keilis-Borok,V.I., 1999.
Testingearthquakepredictionalgorithms: statistically significant advance prediction of the
largest earthquakes in the Circum-Pacific, 1992–1997. Physics of the Earth and Planetary
Interiors 111, 187–196.
Kossobokov, V.G., Keilis-Borok, V.I., Turcotte, D.L., Malamud, B.D., 2000.
Implications of a statistical physics approach for earthquake hazard assessment and
forecasting. Pure and Applied Geophysics 157, 2323–2349.
Kossobokov,V.G., Romashkova, L.L., Panza,G.F., Peresan, A., 2002. Stabilizing
intermediateterm middle-range earthquake predictions.Journal of Seismology and
Earthquake Engineering 8, 11–19.
Kovacs, P., 2010. Reducing the risk of earthquake damage in Canada: lessons from Haiti
and Chile.ICLR Research Paper Series, 49.
Latchman, J.L., Morgan, F.D.O., Aspinall, W.P., 2008. Temporal changes in the
cumulative piecewise gradient of a variant of the Gutenberg–Richter relationship, and the
imminence of extreme events. Earth-Science Reviews 87, 94–112.
Latoussakis, J., Kossobokov, V.G., 1990. Intermediate term earthquake prediction in the
area of Greece—application of the algorithm M8. Pure and Applied Geophysics 134,
261–282.
Lee, K., & Yang, W. S. (2006). Historical seismicity of Korea. Bulletin of the
Seismological Society of America, 71(3), 846–855.
Lienkaemper, J.J., 2001. 1857 slip on the San Andreas fault southeast of Cholame,
California. Bulletin of the Seismological Society of America 91, 1659–1672.
Lienkaemper, J.J., Prescott, W.H., 1989. Historic surface slip along the San Andreas Fault
near Parkfield, California. Journal of Geophysical Research 94, 17,647–17,670.
Lockner, D.A., Beeler, N.M., 1999.Premonitory slip and tidal triggering of
earthquakes.Journal of Geophysical Research 104.doi:10.1029/1999JB900205.
86
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Lombardi, A.M., Marzocchi, W., 2010a. A double-branching model applied to longterm
forecasting of Italian seismicity (ML≥5.0) within the CSEP project. Annals of
Geophysics 53.doi:10.4401/ag-4762.
Lombardi, A.M., Marzocchi, W., 2010b. The ETAS model for daily forecasting of Italian
seismicity in the CSEP experiment. Annals of Geophysics 53.doi:10.4401/ag-4848.
Macqueen, J. B. (1968). Some methods for classification and analysis of multivariate
observations.In Proceedings of the 5th Berkeley symposium on mathematical statistics
and probability (pp. 281–297).
MacQueen J. (1995). The em algorithm for graphical association models withmissing
data. Computational Statistics and Data Analysis, 19:191–201.
Madahizadeh, R., Allamehzadeh, M., 2009.Prediction of aftershocks distribution using
artificial neural networks and its application on the May 12, 2008 Sichuan
earthquake.Journal of Seismology and Earthquake Engineering 12 (n. 10).
Main, I., 1999a. Applicability of the time-to-failure analysis to accelerated strain before
earthquakes and volcanic eruptions. Geophysical Journal International 139, F1–F6.
Main, I. (moderator), 1999b. Is the reliable prediction of individual earthquakes a realistic
scientific goal?, Debate in Nature,
www.nature.com/nature/debates/earthquake/equake_frameset.html.
Martinez-Alvarez, F., Troncoso, A., Morales-Esteban, A., Riquelme, J. C. 2011.
Computational intelligence techniques for predicting earthquakes. Lecture Notes in
Artificial Intelligence, Vol. 6679, No. 2, pages 287-294.
Martínez-Álvarez, F., Troncoso A., Riquelme, J. C., Aguilar-Ruiz, J. S.. 2011. Lecture
Notes in Artificial Intelligence, Vol. 6679, No. 2, pages 287-294.
Martínez-Álvarez, F., Troncoso, A., Riquelme, J. M., Riquelme, J. C., 2007. Discovering
Patterns in Electricity Price Using Clustering Techniques. Proceedings of the
International Conference on Renewable Energies and Power Quality, 67-68.
Marzocchi, W., Lombardi, A.M., 2008. A double-branching model for earthquake
occurrence.Journal of Geophysical Research 113, B08317.doi:10.1029/2007JB005472.
Marzocchi, W., Sandri, L., Boschi, E., 2003. On the validation of earthquake-forecasting
models: the case of pattern recognition algorithms. Bulletin of the Seismological Society
of America 935, 1994–2004.
Matsu'ura, T., Kase, Y., 2010.Late Quaternary and coseismic crustal deformation across
the focal area of the 2008 Iwate–Miyagi Nairiku earthquake. Tectonophysics 487,13–21.
Mao J. and Jain A.(1996). A self-organizing network for hyperellipsoidal clustering
(hec). IEEE Transactions on Neural Networks, 7:381–389.
Mignan, A., 2008. The Non-Critical Precursory Accelerating Seismicity Theory (NC
PAST) and limits of the power-law fit methodology. Tectonophysics 452.
doi:10.1016/j.tecto.2008.02.010.
87
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Mignan, A., 2011. Retrospective on the Accelerating Seismic Release (ASR) hypothesis:
controversy and new horizons. Tectonophysics 505, 1–16.
Mignan, A., Di Giovambattista, R., 2008. Relationship between accelerating seismicity
and quiescence, two precursors to large earthquakes. Geophysical Research Letters 35,
L15306. doi:10.1029/2008GL035024.
Mignan, A., Tiampo, K.F., 2010. Testing the Pattern Informatics index on synthetic
seismicity catalogues based on the Non-Critical PAST. Tectonophysics 483, 255–
268.doi:10.1016/j.tecto.2009.10.023.
Mignan, A., Bowman, D.D., King, G.C.P., 2006a. An observational test of the origin of
Accelerating Moment Release before large earthquakes.Journal of Geophysical Research
111, B11304.doi:10.1029/2006JB004374.
Mignan, A., King,G.C.P., Bowman,D.D., Lacassin, R.,Dmowska, R., 2006b. Seismic
activity in the Sumatra–Java region prior to the December 26, 2004Mw=9.0–9.3 and
March 28, 2005 Mw=8.7 earthquakes. Earth and Planetary Science Letters 244, 639–654.
Mignan, A., King, G.C.P., Bowman, D.D., 2007. A mathematical formulation of
accelerating moment release based on the Stress Accumulation model. Journal of
Geophysical Research 112, B07308. doi:10.1029/2006JB004671.
Mogi, K., 1967. Regional variations in magnitude–frequency relation of earthquakes.
Bulletin of the Earthquake Research Institute, Tokyo University 5, 67–86.
Mogi, K., 1969. Some features of recent seismic activity in and near Japan 2, Activity
before and after large earthquakes. Bulletin of the Earthquake Research Institute, Tokyo
University 47, 395–417.
Mora, P., Wang, Y.C., Yin, C., Place, D., Yin, X.C., 2002. Simulation of the load–unload
response ratio and critical sensitivity in the lattice solid model. Pure and Applied
Geophysics 159, 2525–2536.
Morales-Esteban, A., Martinez-Alvarez, F., Troncoso, A., Justlo, J.L., Rubio-Escudero,
C., 2010.Pattern recognition to forecast seismic time series. Expert Systems with
Applications 37, 8333–8342.
Morales-Esteban, A., Martinez-Alvarez, F., Reyes, J., 2013. Earthquake prediction in
seismogenic areas of the Iberian Peninsula based on computational intelligence.
Tectonophysics 593, 121-134.
Nanjo, K.Z., 2010. Earthquake forecast models for Italy based on the RI algorithm.
Annals of Geophysics 53, 3.doi:10.4401/ag-4810.
Nanjo, K., Nagahama, H., Satomura, M., 1998. Rates of aftershock decay and the fractal
structure of active fault systems. Tectonophysics 287, 173–186.
Nanjo, K.Z., Rundle, J.B., Holliday, J.R., Turcotte, D.L., 2006b. Pattern informatics and
its application for optimal forecasting of large earthquakes in Japan.Pure and Applied
Geophysics 163.doi:10.1007/s00024-006-0130-2.
88
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Nuannin, P., Kulhanek, O., & Persson, L. (2005).Spatial and temporal b-value anomalies
preceding the devastating off coast of NW Sumatra earthquake of December 26,
2004.Geophysical Research Letters, 32.
Ogata, Y., 1983. Estimation of the Parameters in the Modified Omori Formula for
Aftershock Frequencies by the Maximum Likelihood Procedure. Journal of Physics of
the Earth 31, 115–124.
Ogata, Y., 1985a. Statistical models for earthquake occurrences and residual analysis for
point processes. Res. Memo. Tech. Rep., 288. Inst. of Stat. Math, Tokyo.
Ogata, Y., 1985b. Statistical models for earthquake occurrences and residual analysis for
point processes. Res. Memo. Tech. Rep., 288. Inst. of Stat. Math, Tokyo.
Ogata, Y., 1987. Long-term dependence of earthquake occurrences and statistical models
for standard seismic activity in Japanese. In: Saito, M. (Ed.), Mathematical Seismology,
vol. II. Inst. of Stat. Math, Tokyo, pp. 115–125.
Ogata, Y., 1988. Statistical models for earthquake occurrence and residual analysis for
point process. Journal of the American Statistical Association 83, 9–27.
Ogata, Y., 1989. Statistical model for standard seismicity and detection of anomalies by
residual analysis. Tectonophysics 169, 159–174.
Ogata, Y., 1998. Space-time point-process models for earthquake occurrences. Annals of
the Institute of Statistical Mathematics 50, 379–402.
Ogata, Y., 1999. Seismicity analysis through point-process modeling: a review. Pure and
Applied Geophysics 155, 471–507.
Ogata, Y., 2005. Synchronous seismicity changes in and around the northern Japan
preceding the 2003 Tokachi-oki earthquake of M8.0. Journal of Geophysical Research
110.doi:10.1029/2004JB003323 B08305.
Ogata, Y., Katsura, K., 1993. Analysis of temporal and spatial heterogeneity of magnitude
frequency distribution inferred from earthquake catalogues. Geophysical Journal
International 113, 727–738.
Ogata, Y., Zhuang, J., 2006. Space-time ETAS models and an improved extension.
Tectonophysics 413, 13–23.
Pantosti, D., Pucci, S., Palyvos, N., DeMartini, P.N., D'Addezio, G., Collins, P.E.F.,
Zabci, C., 2008. Paleoearthquakes of the Duzce fault North Anatolian Fault Zone: insights
for large surface faulting earthquake recurrence. Journal of Geophysical Research
113.doi:10.1029/2006JB004679.
Parsons, T., 2004.Recalculated probability of M≥7 earthquakes beneath the Sea of
Marmara, Turkey.Journal of Geophysical Research 109,
B05304.doi:10.1029/2003JB002667.
Parsons, T., Geist, E.L., 2009. Is there a basis for preferring characteristic earthquakes
over a Gutenberg–Richter distribution in probabilistic earthquake forecasting? Bulletin
of the Seismological Society of America 99, 2012–2019. doi:10.1785/0120080069.
89
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Peng, K.Y., Yin, X.C., Zhang, L.P., 2006. A statistical investigation of the earthquake
predictions using LURR.Pure and Applied Geophysics 163, 2353–2362.
Peresan, A., Kossobokov, V., Romashkova, L., Panza, G.F., 2005. Intermediate-term
middle-range earthquake predictions in Italy: a review. Earth-Science Reviews 69, 97–
132.
Petersen, M.D., Cao, T., Campbell, K.W., Frankel, A.D., 2007. Time-independent and
time-dependent seismic hazard assessment for the state of California: uniform California
earthquake rupture forecast model. Seismological Research Letters 78.
doi:10.1785/gssrl.78.1.99.
Petersen, M.D., Frankel, A.D., Harmsen, S.C., Mueller, C.S., Haller, K.M., Wheeler,
R.L., Wesson, R.L., Zeng, Y., Boyd, O.S., Perkins, D.M., Luco, N., Field, E.H., Wills,
C.J., Rukstales, K.S., 2008. Documentation for the 2008 Update of the United States
National Seismic Hazard Maps, U.S. Geological Survey Open-File Report 1128, 61 pp.
Piatetski-Shapiro G., Frawley W. J., and Matheus C. J. (1991).Knowledge discovery in
databases: an overview. AAAI-MIT Press.
Press, F., Allen, C., 1995. Patterns of seismic release in the southern California
region.Journal of Geophysical Research 100, 6421–6430.
R Development Core Team, 2006. R: a language and environment for statistical
computing. Vienna, R Foundation for Statistical Computing. www.R-project.org 2006.
Ranalli, G. (1969). A statistical study of aftershock sequences. Annali di Geofisica, 22,
359–397.
Reasenberg, P.A., Jones, L.M., 1989. Earthquake hazard after a mainshock in California.
Science 243, 1,173–1,176.
Reasenberg, P.A., Jones, L.M., 1994. Earthquake aftershocks: update. Science 265,
1,251–1,252.
Reid, H.F., 1910. The mechanics of the earthquake, the California earthquake of April
18, 1906.Report State Investig.Comm., vol. 2. Carnegie Inst., Washington.
Reyes, J., Morales-Esteban, A., Martínez-Álvarez, F., 2013. Neural networks to
predict earthquakes in Chile. Applied Soft Computing. 13(2), 1314-1328.
Rhoades, D.A., 2007. Application of the EEPAS model to forecasting earthquakes of
moderate magnitude in Southern California. Seismological Research Letters 78, 110–115.
Rhoades, D.A., 2010. Lessons and questions from thirty years of testing the precursory
swarm hypothesis. Pure and Applied Geophysics 167, 629–644.
Rhoades, D.A., Evison, F.F., 2004. Long-range earthquake forecasting with every
earthquake a precursor according to scale. Pure and Applied Geophysics 161, 47–71.
Rhoades, D.A., Evison, F.F., 2005. Test of the EEPAS forecasting model on the Japan
earthquake catalogue. Pure and Applied Geophysics 162, 1271–1290.
90
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Rhoades, D.A., Gerstenberger, M.C., 2009. Mixture models for improved short-term
earthquake forecasting. Bulletin of the Seismological Society of America 99,636–646.
doi:10.1785/0120080063.
Richter, C.F., 1958. Elementary Seismology. Freeman, San Francisco.
Rikitake, T., 1976.Earthquake Prediction. Elsevier, Amsterdam, Netherlands, pp. 7–26.
Robinson, R., 2000. A test of the precursory accelerating moment release model on some
recent New Zealand earthquakes. Geophysical Journal International 140, 568–576.
Rockwell, T.K., Young, J., Seitz, G., Meltzner, A., Verdugo, D., Khatib, F., Ragona, D.,
Altangerel, O., West, J., 2003. 3,000 years of groundrupturing earthquakes in the Anza
Seismic Gap, San Jacinto fault, southern California: time to shake it up? Seismological
Research Letters 74, 236.
Romachkova, L.L., Kossobokov, V.G., Panza, G.F., Costa, G., 1998. Intermediate-term
predictions of earthquakes in Italy: algorithm M8. Pure and Applied Geophysics 152, 37–
55. doi:10.1007/s000240050140.
Romanowicz, B., Rundle, J.B., 1993. On scaling relations for large earthquakes. Bulletin
of the Seismological Society of America 83, 1294–1297.
Ruina, A., 1983. Slip instability and state variable friction laws. Journal of Geophysical
Research 88, 10,359–10,370.
Rundle, J.B., 1989. Derivation of the complete Gutenberg–Richter magnitude–frequency
relation using the principle of scale invariance. Journal of Geophysical Research 94,
12,337–12,342.
Rundle, J.B., Tiampo, K.F., Klein, W., Sá Martins, J., 2002. Self-organization in leaky
threshold systems: the influence of near mean field dynamics& its implications for
earthquakes, neurobiology and forecasting. PNAS 99 (Suppl. 1), 2463.
Rundle, J.B., Turcotte, D.L., Shcherbakov, R., Klein, W., Sammis, C., 2003. Statistical
physics approach to understanding the multiscale dynamics of earthquake fault systems.
Review of Geophysics 41, 1019.
Rydelek, P.A., Sacks, I.S., Scarpa, R., 1992. On tidal triggering of earthquakes at Campi
Flegrei, Italy. Geophysical Journal International 109, 125–137.
Saichev, A., Sornette, D., 2006. Renormalization of branching models of triggered
seismicity from total to observable seismicity. European Physical Journal B: Condensed
Matter and Complex Systems 51, 443–459. doi:10.1140/epjb/e2006-00242-6.
Sammonds, P.R., Meredith, P.G., Main, I.G., 1992. Role of pore fluids in the generation
of seismic precursors to shear fracture. Nature 359, 228–230.
Scholz, C.H., 1968. The frequency–magnitude relation ofmicrofracturing in rock and its
relation to earthquakes. Bulletin of the Seismological Society of America 58, 399–415.
Scholz, C.H., 2002. The Mechanics of Earthquakes and Faulting, 2nd edition. Cambridge
Univ. Press, Cambridge.
91
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Schorlemmer, D., Gerstenberger, M.C., 2007. RELM Testing Center. Seismological
Research Letters 78, 30–36.
Schorlemmer,D.,Wiemer,S.,Wyss,M., 2004a.EarthquakestatisticsatParkfield: 1.
Stationarity of b values.Journal of Geophysical Research
109.doi:10.1029/2004JB003234 B12307.
Schorlemmer, D., Wiemer, S., Wyss, M., Jackson, D.D., 2004b. Earthquake statistics at
Parkfield: 2. Probabilistic forecasting and testing. Journal of Geophysical Research,
Solid Earth 109.doi:10.1029/2004JB003235 B12308.
Schorlemmer, D., Wiemer, S., Wyss, M., 2005.Variations in earthquake-size distribution
across different stress regimes. Nature 437, 539–542. doi:10.1038/nature04094.
Schorlemmer, D., Gerstenberger, M.C., Wiemer, S., Jackson, D.D., Rhoades, D.A., 2007.
Earthquake likelihood model testing. Seismological Research Letters 78, 17–29.
Schwartz, D.P., Coppersmith, K.J., 1984. Fault behavior and characteristic earthquakes:
examples from Wasatch and San Andreas fault zones. Journal of Geophysical Research
89, 5681–5698.
Shcherbakov, R., Turcotte, D.L., Rundle, J.B., Tiampo, K.F., Holliday, J.R., 2010.
Forecasting the locations of future large earthquakes: an analysis and verification. Pure
and Applied Geophysics 167, 743–749.
Shi, Y., & Bolt, B. A. (1982).The standard error of the magnitude–frequency b-value.
Bulletin of the Seismological Society of America, 72(5), 1677–1687.
Sieh, K.E., 1984. Lateral offsets and revised dates of large earthquakes at Pallett Creek,
California. Journal of Geophysical Research 89, 7641–7670.
Sieh, K., Stuiver, M., Brillinger, D., 1989. A more precise chronology of earthquakes
produced by the San Andreas fault in southern California. Journal of Geophysical
Research 94, 603–623.
Smith, S.W., Sammis, C.G., 2004. Revisiting the tidal activation of seismicity with a
damage mechanics and friction point of view.Pure and Applied Geophysics 161, 2393–
2404.doi:10.1007/s00024-004-2571-9.
Sri Lakshmi, S., Tiwari, R.K., 2009. Model dissection from earthquake time series: a
comparative analysis using modern non-linear forecasting and artificial neuralnetwork
approache. Computers & Geosciences 35, 191–204.
Seismological Research Letters 76, 432–436.
Stirling,M.W.,Wesnousky, S.G., 1997. Do historical rates of seismicity in southern
California require the occurrence of earthquakemagnitudes greater thanwould be
predicted from fault length? Bulletin of the Seismological Society of America 87, 1662–
1666.
92
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Stirling, M.W., McVerry, G.H., Berryman, K.R., 2002a. A new seismic hazard model for
New Zealand. Bulletin of the Seismological Society of America 92, 1878–1903.
Stirling, M., Rhoades, D., Berryman, K., 2002b. Comparison of earthquake scaling
relations derived from data of the instrumental and preinstrumental era. Bulletin of the
Seismological Society of America 92, 812–830.
Sykes, L.R., 1971. Aftershock zones of great earthquakes, seismicity gaps, and
earthquake prediction for Alaska and the Aleutians. Journal of Geophysical Research 76,
8021–8041.
Sykes, L.R., Jaumé, S.C., 1990.Seismic activity on neighbouring faults as a long-term
precursor to large earthquakes in the San Francisco Bay area. Nature 348, 595–599.
Tanaka, S., 2010. Tidal triggering of earthquakes precursory to the recent Sumatra
megathrust earthquakes of 26 December 2004 Mw 9.0, 28 March 2005 Mw 8.6,and 12
September 2007 Mw 8.5. Geophysical Research Letters 37.doi:10.1029/2009GL041581
L02301.
Tanaka, S., Ohtake, M., Sato, H., 2002.Evidence for tidal triggering of earthquakes as
revealed from statistical analysis of global data.Journal of Geophysical Research
107.doi:10.1029/2001JB001577.
Tiampo, K.F., Rundle, J.B., McGinnis, S., Gross, S., Klein, W., 2002. Mean-field
threshold systems and phase dynamics: an application to earthquake fault systems. Eur.
Phys. Lett. 60, 481–487.
Tiampo, K.F., Rundle, J.B., Klein, W., 2006a. Premonitory seismicity changes prior to
the Parkfield and Coalinga earthquakes in southern California. Tectonophysics 413, 77–
86.
Tiampo, K.F., Rundle, Klein,W., 2006b. Stress shadows determined from a phase
dynamicalmeasure of historic seismicity. Pure and Applied
Geophysics.doi:10.1007/200024-006-0134-y.
Tiampo, K.F., Rundle, J.B., Klein, W., Holliday, J., 2006c. Forecasting rupture dimension
using the pattern informatics technique. Tectonophysics 424, 367–376.
Tiampo, K.F., Bowman, D.D., Colella, H., Rundle, J.B., 2008. The Stress Accumulation
Method and the Pattern Informatics Index: complementary approaches to earthquake
forecasting. Pure and Applied Geophysics 165, 693–709. doi:10.1007/s00024-008-0329-
5.
Turcotte, D.L., 1991. Earthquake prediction. Annual Review of Earth and Planetary
Sciences 19, 263–281.
Turcotte, D.L., 1997. Fractals and Chaos in Geology and Geophysics. Cambridge
University Press, Cambridge.
Utsu, T. (1965). A method for determining the value of b in a formula log n = a-bm
showing the magnitude–frequency relation for earthquakes. Geophysical bulletin of
Hokkaido University, 13, 99–103.
93
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Vere-Jones, D., 1995. Forecasting earthquakes and earthquake risk. International Journal
of Forecasting 11, 503–538.
Vere-Jones, D., 2006. The development of statistical seismology: a personal experience.
Tectonophysics 413, 5–12.
Vidale, J.E., Agnew, D.C., Johnston, M.J.S., Oppenheimer, D.H., 1998. Absence of
earthquake correlation with earth tides: an indication of high preseismic fault stress rate.
Journal of Geophysical Research 103, 24,567–24,572.
Wallace, R.E., 1970. Earthquake recurrence intervals on the San Andreas
Fault.Geological Society of America Bulletin 81, 2875–2890.
Wang, Y.C., Yin, C., Mora, P., Yin, X.C., Peng, K.Y., 2004a. Spatio-temporal scanning
and statistical test of the Accelerating Moment Release (AMR) model using Australian
earthquake data.Pure and Applied Geophysics 161, 2281–2293.
Wang, Y.C., Mora, P., Yin, C., Place, D., 2004b. Statistical tests of load–unload response
ratio signals by lattice solid model: Implication to tidal triggering and earthquake
prediction. Pure and Applied Geophysics 161, 1829–1839.
Ward, S.N., 2007. Methods for evaluating earthquake potential and likelihood in and
around California. Seismological Research Letters 78, 121–133.
Weldon, R., Scharer, K., Fumal, T., Biasi, G., 2004. Wrightwood and the earthquake
cycle: what a long recurrence record tells us about how faults work. GSA Today 14, 4–
10.
Werner, M.J., Sornette, D., 2008. Magnitude uncertainties impact seismic rate estimates,
forecasts and predictability experiments. Journal of Geophysical
Research113.doi:10.1029/2007JB005427.
Werner, M.J., Helmstetter, A., Jackson, D.D., Kagan, Y.Y., Wiermer, S.,
2010.Adaptively smoothed seismicity earthquake forecasts for Italy.Annals of
Geophysics 53.doi:10.4401/ag-4839.
Wesnousky, S., 1994. The Gutenberg–Richter or characteristic earthquake distribution,
which is it? Bulletin of the Seismological Society of America 84,1940–1959.
Wiemer, S., Benoit, J., 1996.Mapping the b-value anomaly at 100 km depth in the Alaska
and New Zealand subduction zones. Geophysical Research Letters 23,1557–1560.
Wiemer, S., Schorlemmer, D., 2007. ALM: an asperity-based likelihood model for
California. Seismological Research Letters 78, 134–140.
Wiemer, S., Wyss, M., 1994. Seismic quiescence before the Landers M=7.5 and Big Bear
M=6.5 1992 earthquakes. Bulletin of the Seismological Society of America 84, 900–916.
Wiemer, S., Wyss, M., 1997. Mapping the frequency–magnitude distribution in
asperities: an improved technique to calculate recurrence times? Journal of Geophysical
Research 102, 15,115–15,128.
Wiemer, S., Wyss, M., 2002.Mapping spatial variability of the frequency–magnitude
distribution of earthquakes. Advances in Geophysics 45, 259–302.
94
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Wiemer, S., McNutt, S.R., Wyss, M., 1998.Temporal and three-dimensional spatial
analysis of the frequency–magnitude distribution. Geophysical Journal International 134,
409–421.
Wiemer, S., Giardini, D., Fäh, D., Deichmann, N., Sellami, S., 2009. Probabilistic seismic
hazard assessment of Switzerland: best estimates and uncertainties. Journal of
Seismology 13, 449–478. doi:10.1007/s10950-008-9138-7.
Witten H. and Frank E. (2005). Data mining: Practical Machine Learning Toolsand
Techniques. Morgan Kaufmann Publishers.
Working Group on California Earthquake Probabilities WG02, 2002. Earthquake
probabilities in the San Francisco Bay region: 2002–2031. U.S. Geol. Surv.Circular 1189.
Working Group on California Earthquake Probabilities WGCEP, 1988. Probabilities of
large earthquakes occurring in California on the San Andreas fault. U.S. Geol.
Surv.Open-File Rept. 62 pp.
Working Group on California Earthquake Probabilities WGCEP, 1990.Probabilities of
large earthquakes in the San Francisco Bay Region, California, U.S. Geol. Surv.Circ. 51
pp.
Working Group on California Earthquake Probabilities WGCEP, 1995. Seismic hazards
in Southern California: probable earthquakes, 1994 to 2024. Bulletin of the Seismological
Society of America 85, 379–439.
Working Group on California Earthquake Probabilities WGCEP, 2003. Earthquake
probabilities in the San Francisco Bay region: 2002 to 2031. U.S. Geol. Surv. Open-File
Rept. 03–214.
Working Group on California Earthquake Probabilities WGCEP, 2008. The uniform
California earthquake rupture forecast, version 2 UCERF 2, U.S. Geol. Surv. Open-File
Rept. 2007–1437.California Geological Survey Special Report, 203
http://pubs.usgs.gov/of/2007/1437/.104 pp.
Wyss, M., 1997. Cannot earthquakes be predicted? Science 278, 487–490.
Wyss, M., Wiemer, S., 2000. Change in the probability for earthquakes in Southern
California due to the Landers magnitude 7.3 earthquake. Science 290, 1,334–1,338.
Wyss, M., Shimaziki, K., Urabe, T., 1996.Quantitative mapping of a precursory seismic
quiescence to the Izu-Oshima 1990 M6.5 earthquake, Japan. Geophysical Journal
International 127, 735–743.
Yin, C., Mora, P., 2006. Stress reorientation and LURR: implication for earthquake
prediction using LURR. Pure and Applied Geophysics 163, 2363–2373.
Yin, X.C., Wang, Y., Peng, K., Bai, Y., Wang, H., Yin, X.F., 2000. Development of a
new approach to earthquake prediction: load/Unload Response Ratio (LURR) theory.
Pure and Applied Geophysics 157, 2365–2383.
95
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Yin, X.C., Zhang, L.P., Zhang, H.H., Yin, C., Wang, Y.C., Zhang, Y.X., Peng, K.Y.,
Wang, H.T., Song, Z.P., Yu, H.Z., Zhaung, J.C., 2006. LURR's twenty years and its
perspective. Pure and Applied Geophysics 163, 2317–2341.
Yin, C., Xing, H.L., Mora, P., Xu, H.H., 2008a.Earthquake trend around Sumatra
indicated by a new implementation of LURR method. Pure and Applied Geophysics 165,
723–736.
Yin, X.C., Zhang, L.P., Zhang, Y.X., Peng, K.Y., Wang, H.T., Song, Z.P., Yu, H.Z.,
Zhang, H.H.,
Yin, C., Wang, Y.C., 2008b. The newest developments of load–unload response ratio
(LURR). Pure and Applied Geophysics 165, 711–722.
Yin, X.C., Zhang, L.P., Zhang, Y.X., Peng, K.Y., Wang, H.T., Song, Z.P., Zhang, X.T.,
Yuan, S.A., 2010. The peak point of LURR and its significance. Concurrency and
Computation 22, 1549–1558.
Yu, H.Z., Zhu, Q.Y., 2010. A probabilistic approach for earthquake potential evaluation
based on the load/unload response ratio method. Concurrency and Computation 22,
1520–1533.
Yu, H.Z., Shen, Z.K., Wan, Y.G., Zhu, Q.Y., Yin, X.C., 2006. Increasing critical
sensitivity of the Load/Unload Response Ratio before large earthquakes with identified
stress acclumulation pattern. Tectonophysics 428, 87–94.
Zechar, J.D., Jordan, T.H., 2008. Testing alarm-based earthquake predictions.
Geophysical Journal International 172, 715–724. doi:10.1111/j.1365-
246X.2007.03676.x.
Zechar, J.D., Jordan, T.H., 2010. Simple smoothed seismicity earthquake forecasts for
Italy. Annals of Geophysics 53.doi:10.4401/ag-4845.
Zechar, J.D., Zhuang, J., 2010. Risk and return: evaluating Reverse Tracing of Precursors
earthquake predictions. Geophysical Journal International 182, 1319–1326. doi:10.1111/
j.1365-246X.2010.04666.x.
Zechar, J.D., Schorlemmer, D., Liukis, M., Yu, J., Euchner, F., Maechling, P., Jordan, J.,
2010.The collaboratory for the study of earthquake predictability perspective on
computational earthquake science. Concurrency and Computation 22, 1836–1847.
Zhang T, Ramakrishnan R., and Livny M. (1996). Birch: an efficient data clustering
method for very large databases. ACM-SIGMOD Proceedings of the International
Conference Management of Data, pages 103–114.
Zhang, Y.X., Yin, X.C., Peng, K.Y., 2004. Spatial and temporal variation of LURR and
its implication for the tendency of earthquake occurrence in Southern California.Pure and
Applied Geophysics 161, 2359–2367.
Zhang, X.T., Zhang, Y.X., Yin, X.C., 2009. Study on the earthquake potential regions in
north and northeast China by Pattern Informatics method. Proceeding of the 2009 2nd
International Conference on Biomedical Engineering and Informatics, v. 1–4, pp. 2266–
2270.
96
TRABAJO FIN DE GRADO: PREDICCIÓN DE TERREMOTOS | Grado en Ingeniería Informática en Sistemas de Información
Zhang, L.P., Yin,X.C., Liang, N.G., 2010. Relationship between load/unload response
ratio and damage variable and its application. Concurrency and Computation 22, 1534–
1548.
Zhuang, J., Ogata, Y., Vere-Jones, D., 2004. Analyzing earthquake clustering features by
using stochastic reconstruction.Journal of Geophysical Research 109,
B05301.doi:10.1029/2003JB002879.
Zollo, A., Marzocchi, W., Capuano, P., Lomaz, A., & Iannaccone, G. (2002). Space and
time behavior of seismic activity at Mt. Vesuvius volcano, outhern Italy. Bulletin of the
Seismological Society of America, 92(2), 625–640.
http://earthquaketrack.com/p/chile/recent
http://moho.ess.ucla.edu/~kagan/GJI_1997.pdf
http://www.escuelapedia.com/consecuencias-de-terremotos/
http://docs.oracle.com/javase/7/docs/api/
http://weka.sourceforge.net/doc.stable/
https://github.com/vivin/GenericTree
https://github.com/adiazc26/gitadiazc26ed/blob/master/ArturoDed/src/febrero/Dispositi
voContador.java
https://github.com/jarroba/ThreadsJarroba
https://github.com/mgamallo/SwingWorkerEjemplo/tree/master/BarraProgresoEjemplo
http://www.vitutor.com/pro/1/a_r.html
http://es.slideshare.net/lissetsuarez/modelos-de-datos-y-procesos
http://www.justdocument.com/download/97223903893/problemas-universales-ante-
terremotos-moderadamente-fuerte-de-aceleracion-momento-de-lanzamiento/
http://portalweb.sgm.gob.mx/museo/es/riesgos/sismos
http://www.ingenieria.peru-v.com/sismos/esfuerzos_para_predecir_sismos.html
Top Related