CREATING BRAND VALUE CREATING BRAND VALUE Playa Pie de la Cuesta 410, Col. Reforma Iztaccihuatl, CP...
-
Upload
nacio-leyba -
Category
Documents
-
view
1 -
download
1
Transcript of CREATING BRAND VALUE CREATING BRAND VALUE Playa Pie de la Cuesta 410, Col. Reforma Iztaccihuatl, CP...
CREATING BRAND VALUECREATING BRAND VALUE
Playa Pie de la Cuesta 410, Col. Reforma Iztaccihuatl, CP 08840,Delegación Iztacalco. Tels. 3626-0822 / 3626-0823
www.marketvariance.com
Segmentación
Julio 2001.
Jorge Andrade Rios
Objetivos de la segmentación de mercados.
Diseñar productos con mayores posibilidades de éxito.
Mejorar la asignación de recursos y esfuerzos en la promoción
del producto.
Adoptar mejores mezclas de mercadotecnia a la medida de
necesidades y características de cada segmento.
Satisfacción de los deseos y necesidades del consumidor.
Entender el comportamiento del consumidor qué, cuándo y a
quién compran o venden productos.
Definición de segmentación
Procedimiento mediante el cual se divide un mercado en grupos
con características y necesidades similares.
No todos los grupos resultantes en un estudio de segmentación
son útiles; antes deben cumplir con algunas condiciones básicas:
Ser rentables.
Poder ser identificados y medibles.
Ser accesibles.
Capaces de responder a los esfuerzos mercadológicos.
Rentabilidad
El segmento debe tener sentido comercial; es decir, debe ser lo
suficientemente grande (económicamente hablando) para
justificar la creación, desarrollo y mantenimiento de una
estrategia especial de mercadotecnia.
Identificable y medible
Las características del segmento deben ser claras y explícitas de
forma tal que proporcionen medidas muy concretas respecto a su
tamaño y hábitos de compra.
AccesiblePodrán implementarse programas de mercadotecnia capaces de
alcanzar al segmento; ciertos grupos por sus características son
difíciles de alcanzar; por ejemplo: los ancianos, sordos o mudos.
Capacidad de respuesta
El segmento responderá de manera particular a la estrategia de
mercadotecnia diseñada para él, si éste responde de la misma
forma como lo hace él público en general no se justifica la
segmentación.
Tipos de segmentación.
Demográfica
Geográfica
Beneficios
Tasa de uso
Perfiles Psicográficos
Segmentación geográfica.
El mercado es dividido por regiones ya sea dentro de un país o
alrededor del mundo; el clima, densidad y tamaño del
mercado son variables que se toman en cuenta para dicha
segmentación.
Segmentación demográfica.
Esta segmentación es la más básica y casi todos los estudios
de investigación de mercados la emplean. Usualmente, los
resultados son presentados individualmente para variables
como sexo, edad, ingresos, ciclo de vida familiar, etc.
Segmentación por beneficios.
Se basa principalmente en características que el consumidor
busca en un producto o servicio.
Es posible delimitar el perfil del consumidor mediante
información asociada a los beneficios y la gente que los desea.
El análisis de conjunto es ideal para este tipo de segmentación.
La estrategia es mejorar los programas de comunicación de
mercadotecnia, el producto o diseñar uno nuevo con base a los
beneficios que busca el consumidor.
Segmentación por tasa de uso.
El mercado es dividido con respecto a la cantidad de producto
que se consume o se compra. Generalmente, se forman
categorías de usuarios; por ejemplo consumidores light,
medium y heavy que hace referencia a personas que consumen
poco, moderadamente y mucho, respectivamente; otro tipo de
categorías pueden ser usuarios anteriores, potenciales o
nuevos.
Segmentación psicográfica.
Se basa en variables de personalidad, motivos, estilos de vida
además de las demográficas tradicionales para ofrecer una
descripción más completa de diferentes segmentos.
VALS (Valores, Actitudes y Estilos de Vida) es uno de los
ejemplos más representativos de este tipo de segmentación.
Técnicas para segmentación.
Análisis de conglomerados.
Análisis factorial Q.
Análisis de conjunto
Mapas perceptuales.
Árboles de desición: Chaid (Chi-square automatic
interaction detector) Cart (Classification and regression
trees).
Modelos de clase latente.
Minería de datos (Data mining).
Análisis de conglomerados
Análisis de conglomerados
Este análisis es de los más comunes, se usa para agrupar casos
(sujetos u objetos) con base a las distancias euclidianas que
hay de un caso a otro con respecto a determinadas variables.
Los conglomerados resultantes pretenden maximizar la
homogeneidad de características al interior del grupo y la
heterogeneidad entre grupos.
Es posible agrupar variables aunque no es muy común, ya que
para tal propósito se emplea mejor el análisis factorial.
Trabaja con variables de intervalo o razón y dicotómicas.
Las variables pueden ser una batería de atributos de imagen,
actitudes o cualquier otra que sea de interés para el
investigador.
Ejemplo (Hair, Anderson, Tatham, et al, 1999)
En una escala de 0 a 10 se evaluó la lealtad a la tienda y marca
de siete personas, los datos resultantes se presentan en la
siguiente tabla.
A B C D E F GLealtad a la tienda 3 4 4 2 6 7 6Lealtad a la marca 2 5 7 7 6 7 4
VariableSujetos
A continuación se presenta la matriz de distancias euclidianas
entre cada uno de los sujetos con base a las variables
evaluadas.
A partir de la matriz de distancias y mediante un
procedimiento jerárquico y aglomerativo es que se van
haciendo los grupos; es decir, los sujetos que tienen las
distancias más cortas entre si se unen para crear grupos y se
combinan con otros ya existentes.
Sujetos A B C D E F GA ----B 3.16 ----C 5.10 2.00 ----D 5.10 2.83 2.00 ----E 5.00 2.24 2.24 4.12 ----F 6.40 3.61 3.00 5.00 1.41 ----G 3.61 2.24 3.61 5.00 2.00 3.16 ----
Matriz de proximidad de distancias euclidianas
Paso
Distancia mínima entre
sujetos
Par de sujetos
Pertenencia al grupoNúmero
de grupos
Distancia dentro del
grupo
(A) (B) (C) (D) (E) (F) (G) 7 0.0001 1.414 E-F (A) (B) (C) (D) (E-F) (G) 6 1.4142 2.000 E-G (A) (B) (C) (D) (E-F-G) 5 2.1923 2.000 C-D (A) (B) (C-D) (E-F-G) 4 2.1444 2.000 B-C (A) (B-C-D) (E-F-G) 3 2.2345 2.236 B-E (A) (B-C-D-E-F-G) 2 2.8966 3.162 A-B (A-B-C-D-E-F-G) 1 3.420
Proceso de cluster aglomerativo jerárquico
Proceso de agrupación Solución cluster
Solución inicial
En la tabla superior se observa que los sujetos E y F crean el
primer grupo ya que las distancias entre ellos son las más cortas;
en el siguiente paso estos sujetos se combinan con G que es el que
más cerca está de ellos.
Al combinarse los casos E, F y G las distancias E-F (1.414) E-G
(2.000) y F-G (3.162) son promediadas resultando una distancia
de 2.192 dentro del grupo la cual sirve como indicador para
evaluar que tan homogéneo es el grupo. El proceso de formar
grupos continúa hasta que queda uno solo.
El criterio para elegir el número de grupos que explican la
máxima varianza entre ellos y maximizan la homogeneidad en su
interior se deriva de las distancias resultantes en su combinación
(véase columna que dice distancia dentro del grupo).
Una forma gráfica de ver dichas distancias es el dendrograma.
A
B
C
D
E
F
G
Dendrograma
4
3
5
12
6
1 2 43
Usualmente, los programas estadísticos reescalan las distancias
originales de manera que el dendrograma aparece en otras
unidades.
Desventajas
Es puramente descriptivo, no hay teorías que lo sustenten y no
es posible hacer inferencias estadísticas.
Las soluciones o los conglomerados dependen de las técnicas
empleadas por lo que es muy común encontrar diferentes
agrupamientos al variar la técnica.
El análisis de conglomerados siempre creará grupos a partir de
cualquier base de datos, independientemente de que exista o no
una estructura auténtica en ellos (el CCA de Sawtooth
Software elimina este problema).
Como es obvio, el resultado final depende siempre de los datos
usados por lo que la eliminación o inclusión de variables tiene
un impacto importante sobre el número de grupos resultantes.
Metodología Q
Análisis factorial Q
Este análisis se usa para agrupar casos (sujetos u objetos) en
lugar de variables que es el propósito principal de un análisis
factorial típico.
Metodología desarrollada por el británico William Stphenson
(1902-1989), que básicamente construye un análisis factorial a
partir de la matriz de correlación entre personas y no entre
variables.
Ejemplo (Kerlinger, 1988)
Cuatro sujetos clasifican por orden de rango seis reactivos de
enseñanza dándole el número 1 al más importante y 6 al de
menor importancia, los datos resultantes se presentan en la
siguiente tabla.
Reactivo Sujeto 1 Sujeto 2 Sujeto 3 Sujeto 4Contribución al crecimiento personal 1 1 4 3Estímula el pensamiento 2 3 1 2Valor del trabajo personal 3 2 6 6Habilidad del instructor para explicar 4 6 5 5Procedimiento del curso 6 5 3 4Organización del curso 5 4 2 1
Reactivos ordenados por su importancia en la enseñanaza
Con los datos de la tabla anterior se corrió un análisis de
correlación, el resultado es una matriz de cuatro por cuatro
que muestra el grado de asociación entre sujetos.
Correlations
1.000 .771 -.086 .029
. .072 .872 .957
6 6 6 6
.771 1.000 -.086 .086
.072 . .872 .872
6 6 6 6
-.086 -.086 1.000 .886*
.872 .872 . .019
6 6 6 6
.029 .086 .886* 1.000
.957 .872 .019 .
6 6 6 6
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
Pearson Correlation
Sig. (2-tailed)
N
SUJETO_1
SUJETO_2
SUJETO_3
SUJETO_4
SUJETO_1 SUJETO_2 SUJETO_3 SUJETO_4
Correlation is significant at the 0.05 level (2-tailed).*.
Rotated Factor Matrixa
.841
.917
.938
.951
SUJETO_1
SUJETO_2
SUJETO_3
SUJETO_4
1 2
Factor
Extraction Method: Alpha Factoring. Rotation Method: Varimax with Kaiser Normalization.
Rotation converged in 3 iterations.a.
La afinidad entre el sujeto 1 y 2 se identifica fácilmente al igual
que entre las personas 3 y 4. Sin embargo, cuando se tienen
muchos sujetos es difícil notar esta relación a simple vista por
lo que el análisis factorial representa la solución a este
problema.
Es más fácil ver las relaciones una vez corridos los datos
utilizando el análisis factorial. En la tabla de factores rotados
se observan dos grupos perfectamente, uno orientado hacia las
actividades, sujetos 1 y 2 y otro al maestro, sujetos 3 y 4.
Sólo puede ser usado con variables ordinales o de intervalo.
No se puede trabajar con muestras grandes.
Los supuestos sobre independencia de reactivos se violan al
pedir que sean clasificados por orden de rango.
Un mismo segmento puede contener sujetos completamente
desiguales aunque tengan el mismo perfil ya que uno califica
alto en la escala y otro bajo.
Desventajas
Análisis de conjunto
Análisis de conjunto
Este análisis sirve para segmentar con base a las
características que busca el consumidor en un producto que
van desde precio, empaque, o cualquier otro atributo.
Las utilidades o valores propios (partworths) de cada sujeto
son los datos utilizados para buscar los posibles segmentos.
La segmentación puede hacerse utilizando cualquier método o
programa una vez obtenidas las utilidades para cada sujeto.
Tradicionalmente se ha venido usando el análisis de
conglomerados aunque hay programas que ya incluyen la
segmentación de clase latente como el CBC de Sawtooth
Software.
Desventajas
Las desventajas de este tipo de segmentación están más
estrechamente relacionadas con la técnica usada para
segmentar que con el análisis de conjunto ya que hay
múltiples posibilidades de segmentar exportando las
utilidades obtenidas por cada sujeto a cualquier programa.
Mapas perceptuales
Mapas perceptuales
Son presentaciones gráficas de las relaciones que existen entre
objetos o sujetos y atributos de un producto o marca.
Existen varios tipos de mapas perceptuales y con diferentes
ventajas así como grado de complejidad; sin embargo, en
general la mayoría permiten:
Identificar diferentes segmentos.
Atributos de interés para determinado segmento.
Nichos de mercado rentables o nuevos.
A qué segmento o grupo se deben dirigir los esfuerzos de
mercadotecnia.
Desventajas
No hay indicadores estadísticos que permitan hacer una
evaluación crítica de cada grupo resultante.
Por lo general los resultados se presentan de manera agregada
por lo que no es posible conocer quienes son los sujetos que
están dentro de cada segmento; multidimensional scaling no
tiene esta limitante.
Por lo general, los datos deben ser del mismo tipo: nominales,
ordinales, o de intervalo no se pueden incluir preguntas que se
consideran importantes si tienen otra escala de medición.
Minería de datos(Data Mining)
Metodología que combina y emplea las técnicas multivariantes
ya existentes como árboles de decisión, regresión lineal
múltiple, cluster, análisis de estructuras de covarianza, etc. y
nuevos enfoques como algoritmos genéticos y redes neuronales
para encontrar relaciones importantes en grandes almacenes
de datos (data warehouse) con que cuentan las empresas.
Dado que incluye bastantes técnicas su operación puede ser
con datos nominales, ordinales y de intervalo o razón.
Existen varios programas para este tipo de análisis, los
programas más completos en el mercado son Interprise Minner
de SAS y Clementine de SPSS.
Minería de datos (Data mining)
Desventajas
Uno de los análisis más conocidos de la minería de datos son las
redes neuronales y posiblemente su mayor desventaja es que no
se pueden hacer inferencias estadísticas aunque en la práctica
los resultados son muy similares a los que se obtendrían en una
regresión, análisis discriminante o cluster.
Necesariamente el concepto de data minning viene ligado al de
data warehousing o almacén de datos por lo que es necesario
contar con esta infraestructura.
Sin embargo, es posible emplear herramientas como redes
neuronales en un trabajo de investigación de mercados.
Árboles de decisión
Herramienta que busca exhaustivamente a través de un
conjunto de datos las relaciones más significativas entre una
variable dependiente y varias independientes.
Opera con datos nominales, ordinales y de intervalo o razón.
Existen varios tipos de algoritmos y los programas existentes
para este tipo de análisis también es extenso.
Los programas más comunes son Chaid y Cart.
A continuación se expone la técnica mediante Knowledgeseeker
de Angoss.
Árboles de Decisión
Desde el menu desplegable file seleccionamos open y hacemos
click en el archivo bpress.dat y a continuación aceptar.
El nodo principal que aparece es la variable dependiente en
este caso hipertensión arterial y el objetivo es ver cuales son los
segmentos más predispuesto a alta hipertensión.
Desde el menu desplegable grow seleccionamos find split y
aparece la relación más significativa de entre todos las
variables que pueden estar causando hipertensión.
Si nos colocamos con el
mouse en cada uno de
los nodos de edad y
desde el menu
desplegable grow
seleccionamos
nuevamente find split
aparecen las siguientes
variables más
significativas.
18.3% 60.3% 21.4%360
Age
32-50 51-62 63-72
35.1% 56.1% 8.8%114
DrinkPattern
regular occasionalrecentStop
formernever
33.3% 61.5% 5.1%78
33.3% 33.3% 33.3%18
44.4% 55.6% 0.0%18
13.6% 72.1% 14.3%154
FishLastWeek
0to2
3to7
13.6% 75.0% 11.4%140
14.3% 42.9% 42.9%14
5.4% 45.7% 48.9%92
FishLastWeek
01
2to7
0.0% 40.9% 59.1%66
19.2% 57.7% 23.1%26
Legend
Hypertension breakdownlow normalhigh total
Estos resultados sugieren que el riesgo de sufrir hipertensión es más alto entre los adultos de 63 a 72 años y que aumenta entre los que no consumieron pescado la semana pasada o solo lo hicieron en una ocasión. Y a la inversa, el consumo de pescado es un factor de riesgo entre los de 51 a 62 años de edad.
18.3% 60.3% 21.4%360
Age
32-50 51-62 63-72
35.1% 56.1% 8.8%114
DrinkPattern
regular occasionalrecentStop
formernever
33.3% 61.5% 5.1%78
33.3% 33.3% 33.3%18
44.4% 55.6% 0.0%18
13.6% 72.1% 14.3%154
FishLastWeek
0to2
3to7
13.6% 75.0% 11.4%140
14.3% 42.9% 42.9%14
5.4% 45.7% 48.9%92
FishLastWeek
01
2to7
0.0% 40.9% 59.1%66
19.2% 57.7% 23.1%26
Legend
Hypertension breakdownlow normalhigh total
Modelos de segmentación de clase latente
Modelos de segmentación de clase latente
A partir de 1995 se ha venido publicando bastante sobre este
tipo de modelos debido al incremento de poder de cómputo y
a los algoritmos nuevos que permiten manejar un número
mayor de variables.
Estos modelos parecen una mejor alternativa para
segmentar que el tradicional análisis de conglomerados,
factorial, regresión, etc, o incluso mapas perceptuales.
Su poder radica en que no necesitan cumplir los supuestos
de normalidad, homogeneidad, o relacionarse linealmente.
A continuación se ilustra el uso de estos modelos con el
software de Latent Gold.
Conclusión
Las técnicas de segmentación de mercados han venido
evolucionando de forma vertiginosa desde las simples
variables sociodemográficas hasta los modelos de clase
latente que tienen el potencial de incluir todo tipo de
variables y encontrar la estructura que mejor se ajusta a los
datos sin importar si ésta se deriva de una relación lineal,
exponencial, probabilística o cualesquier otra.
Las redes neuronales y los nuevos algoritmos genéticos
permiten localizar segmentos que no hubiera sido posible
encontrar con técnicas clásicas y además permiten trabajar
sin los supuestos de normalidad que son esenciales en los
modelos lineales .
Conclusión
Sin duda, la investigación de mercados se apoyará de
manera cotidiana en este nuevo tipo de técnicas para
segmentar; afortunadamente, para el profesional de la
investigación, el software que maneja estos modelos es cada
vez más amigable y permite un alto grado de especialización
aún para aquellos que no tenemos una fuerte formación
matemático-estadística.
Software para segmentación.
Entreprise Miner de SAS Institute (Statistical Analysis System
en un inicio); Clementine de SPSS (Statistical Package for the
Social Sciences); Knowledgeseeker de Angoos Knowledge
Engineering también vende las herramientas necesarias para
hacer minería de datos; CBC (Conjoint Based Choice) y CCA
(Convergent Cluster Analysis) de Sawtooth Software; Latent
Gold de Statistical Innovations; Advanced Software
Applications (ASA) tiene varios productos principalmente para
hacer data minning; PRIZM, Microvision y otros de Claritas
para segmentar; e infinidad de software más.
Bibliografía.
Kerlinger, F. (1988). Metodología Q en “Investigación del
Comportamiento”. México: McGraw-Hill, pp. 577-595.
Hair, J.F; Anderson, R.E.; Tatham, R.L. et al (1999). Análisis
Cluster en “Análisis Multivariante”. México: Prentice Hall, pp.
491-533.