Este es un elemento estructural por Google en el cual se utilizan mapeos y trabajos que reducen. En eso se basa su modelo de programación.
Manejan una cantidad cercana a 20 Petabytes en sus servidores.
Cuando se "mapea" esto lo que hace es buscar la información en formas pares de valores, y los que "reducen" sólo las unen, simplifican y procesan dichos datos.
MapReduce se encarga de paralelizar tareas, controlar trabajos, mejorar la comunicación que existe entre ellos, y controlar los errores que se lleguen a producir.
Algunas de las utilidades que le dan a MapReduce son:
- Traducción estadística
- Proceso de imágenes de satélite
- Aprendizaje automático
- Análisis de páginas
MapReduce toma el trabajo de cerca de unos 130,000 PCs convencionales. MapReduce está muy enfocado a problemas de escalabilidad, ya que no olvidemos que Google se expande muchísimo a cada segundo que pasa, desde gente que se une al servicio de mail, como para muchas otras cosas.
Fuentes: http://www.lacofa.es/index.php/tecnologias/mapreduce-paralelismo-en-google
Etiquetas
And
(1)
Buffer
(1)
C
(3)
Clase POO
(12)
Conversión
(1)
Factorial
(1)
Fortran
(1)
Funciones trigonométricas
(1)
If
(1)
Información general
(1)
Java
(2)
Laboratorio Lenguajes de Programación
(28)
Librería Math
(4)
Librerías
(2)
Or
(1)
Perl
(5)
Programación Orientada a Objetos
(1)
Puntos extra Clase POO
(9)
Puntos extra Taller POO
(12)
Python
(13)
Scheme
(2)
Semana 1
(1)
Semana 13
(5)
semana 14
(4)
Semana 2
(3)
Semana 3
(3)
Semana 4
(3)
Semana 5
(1)
Shell
(1)
Switch
(2)
Taller POO
(10)
Tarea extra
(5)
Tarea semanal
(12)
While
(1)
martes, 22 de noviembre de 2011
Suscribirse a:
Enviar comentarios (Atom)
MapReduce al ser un algoritmo de BigData aplicado a data mining o patrones estadísticos, esta siendo utilizado para parsear grandes logs de servers de todo tipo y luego estimar mediante metodos multivariable sobre acciones a tomar, fijense en distros como cloudera o hortonworks las cuales se basan en hadoop cluster y diversos algoritmos de datamining
ResponderEliminarMapReduce al ser un algoritmo de BigData aplicado a data mining o patrones estadísticos, esta siendo utilizado para parsear grandes logs de servers de todo tipo y luego estimar mediante metodos multivariable sobre acciones a tomar, fijense en distros como cloudera o hortonworks las cuales se basan en hadoop cluster y diversos algoritmos de datamining
ResponderEliminar