Belkasoft Forensic Studio Ultimate. Introducción

Hace unas semanas colgué una pequeña revisión de Belkasoft Ram Capturer, una herramienta que permite volcar el contenido de la memoría RAM de un PC Windows para su posterior análisis. En aquella ocasión utilicé un "strings" para "analizar" muy por encima el contenido obtenido.

Pues bien, la gente de Belkasoft me ha cedido una licencia temporal de su herramienta "Forensic Studio Ultimate" para que compruebe de primera mano las posibilidades de este software tanto para analizar volcados de memoria (como los generados por Ram Capturer) como sus otras posibilidades. "Forensic Studio Ultimate" es una evolución del "Evidence Center" que ya conocíamos. En la web de Belkasoft se puede comprobar la interminable lista de funciones que contiene este Software.

Mientras dure la licencia voy a analizar este producto y colgaré en el blog las pruebas que realice y mis impresiones al respecto. Aunque en la licencia tengo activadas un montón de funciones (casi todas) voy a centrarme en los usos más comunes en mi actividad como perito informático: análisis de contenido "estático" de discos duros (documentos, imágenes, recuperación de ficheros borrados, etc.), documentación de la actividad de a un ordenador (correos electrónicos, mensajería instantánea, etc.), análisis de dispositivos portátiles (tablets, smartphones, etc.).


¿Qué es Belkasoft Forensic Studio Ultimate?
Es una herramienta que automatiza algunas de las tareas habituales de un perito informático. Está centrado en el análisis de datos procedentes de un ordenador personal (Windows, Mac, Linux). De forma resumida, este software toma una fuente de información "en bruto", la analiza y presenta de forma organizada todo lo que encuentra.
La fuente puede ser un directorio con archivos, una imagen de memoria (obtenida con Ram Capturer), un disco que conectemos al equipo (via USB o conectado directamente dentro del equipo), un fichero con la imagen de un disco (generado con dd o dc3dd, por ejemplo).
Lo que encuentra es .... "casi todo lo imaginable": archivos de todo tipo (imágenes, documentos office, openoffice, pdf, etc.), información de los navegadores (historial), mensajes de correo electrónico (gmail. outlook, hotmail, etc.), historial de mensajería instantánea, actividad en redes sociales, etc.
Además, realiza algunas tareas de forma automática que, de otra manera, tendría que hacer el perito a mano a costa de su precioso tiempo: descifra archivos (office, outlook, pdf, zip, etc.), localiza y muestra imágenes contenidas en thumbnails, extrae bases de datos SQLite, clasifica automáticamente imágenes y vídeos (en "porno", "caras", "textos"), identifica archivos locales que están sincronizados en algún servicio cloud, localizar archivos borrados, etc.

Se puede decir, simplificando aún más, que es una alternativa (3 veces más barata, aproximadamente) al famoso Guidance EnCase.


¿Qué NO es Belkasoft Forensic Studio Ultimate?
No es un software para que una persona sin conocimientos haga una pericial forense sin tener ni idea. Una persona sin conocimientos puede usar esta herramienta para "jugar" pero, desde luego, no puede presentarse delante de un tribunal diciendo "yo no tengo ni idea de hacer periciales informáticas pero me compré un programa y aquí estoy".
No escribe informes automáticamente. Es decir, el perito informático tiene que escribir y argumentar el informe aunque la herramienta le ayude a localizar las evidencias. El software aportará listados interminables con nombres de archivos, fechas, etc. pero la parte importante del informe lo tendrá que trabajar el perito en persona.
No exime al perito de conocer el fundamento técnico de las pruebas que presenta. Esto es importante: el software puede localizar una fotografía escondida (en memoria, en un thumbnail.db, dentro de un e-mail, en un archivo borrado, etc.) pero el perito debe ser capaz de argumentar cómo ha llegado esa fotografía desde la evidencia (el disco duro incautado) hasta el informe pericial. Es conveniente que el perito sea capaz de repetir manualmente (herramientas estándar, editor hexadecimal, etc.) el proceso seguido por la herramienta.


¿Merece la pena una herramienta de este tipo?
Pues, depende. Depende de cuánto tiempo y esfuerzo supone de ahorro tener esta herramienta frente a la opción de hacer el análisis manualmente o programar uno mismo las herramientas según las va necesitando.
Forensic Studio Ultimate sale por 1.000 dólares USA (precio en la web de Belkasoft) y el mantenimiento unos 300 dólares / año. No es muy caro, de hecho parece que el mensaje de sus creadores es ser "la versión barata de EnCase" (y rusa). Personalmente una herramienta de este tipo me merece la pena si me ahorra trabajar un par de fines de semana al año (todos los años tengo varios fines de semana que me paso programando, revisando ficheros en hexadecimal o recuperando trozos de archivos borrados para un informe que hay que entregar "urgentemente" la siguiente semana).


Durante las próximas semanas publicaré aquí las pruebas que vaya realizando, que son: análisis de un volcado de RAM, análisis de una tarjeta de memoria de un Smartphone, análisis de un sistema completo Windows 7, etc. No son casos elegidos al azar, es simplemente en lo que estoy trabajando ahora.

</ Belkasoft Forensic Studio Ultimate. Introducción>

Innovación, derecho y seguridad

Los retos de la privacidad: innovación, derecho y seguridad (crónica personal)

He asistido al segundo día del "Congreso internacional [sobre] los retos de la privacidad: innovación, derecho y seguridad" que parece formar parte de la "Cátedra Google" llamada "Privacidad, Sociedad e Innovación". Esta es la página oficial del evento: http://www.uspceu.es/pages/investigacion/catedras/catedra-google-privacidad-sociedad-e-innovacion-congreso-internacional.html

Me ha parecido tremendamente interesante y, por eso, voy a publicar aquí mis notas y algunos comentarios personales que he tomado durante las mesas redondas. Para que no haya dudas, mis comentarios están en cursivas.


Abogacía y Derecho a la protección de datos personales
He llegado tarde a la primera mesa por una sucesión de incidentes domésticos.
Jonathan Goldsmith (Secretario General de CCBE. Council of Bars and Law Societies of Europe), ha hecho referencia, entre otras cosas, a dos proyectos europeos interesantes:

  1. e-codex: un proyecto europeo para poner en línea la legislación de los países de la unión.
  2. FAL 2 (Find a lawyer 2): permitiría localizar y homologar abogados entre países de la unión. Es decir, permitiría a un abogado español demandar a una empresa italiana en Italia.

No soy experto en leyes pero creo que estamos lejos de conseguir esto. Por ejemplo, estoy designado como perito desde hace dos años en un juicio en que las partes son de Irlanda, España e Italia. El caso no avanza porque, entre otras cosas, Italia no acepta la provisión de fondos que solicité en su día. Otra duda: ¿cómo se podría aplicar esto a la discutible figura del procurador, desconocida en la mayoría de los países europeos?

Durante las preguntas, Rodolfo Tesone (Presidente de “Asociación de Expertos Nacionales de la Abogacía TIC”, ENATIC) hizo un comentario interesante sobre cómo los abogados aplican leyes como la LOPD pero no son sensibles a la privacidad en su trabajo diario (por ejemplo, en las comunicaciones con los procuradores). Mencionó el concepto "Privacy by design".


Innovación, Redes sociales y Privacidad del menor
  • Moderador: Carlos Represa. Centro de Seguridad TIC Escolar. 
  • Conrado Escobar de las Heras. Diputado Nacional del Congreso por el PP. Portavoz de la Comisión de Interior. Portavoz de la subcomisión de estudio del uso de las redes sociales.
  • Félix Lavilla Martínez. Diputado por el PSOE.
  • Jose Díaz Cappa. Fiscal en la Fiscalía Superior de la Comunidad Autónoma de las Islas Baleares. Delegado de Criminalidad Informática. 
  • José de la Peña. Director de SIC


Carlos Represa (@CarlosRepresa1) comentó que la edad media de acceso a Internet es ya de sólo 9 años.
Mi hijo ya accede a portales diseñados para niños que no leen aún. Es decir, no tenemos tiempo para prevenir a nuestros hijos de lo que se van a encontrar en Internet porque ya están ahí. Necesitan un "training on the net".

Conrado Escobar (@conrado_escobar) hizo un comentario que me pareció muy pertinente contraponiendo las características de "Internet 2.0" (inmediatez, movilidad, no-privacidad) frente a dos cualidades eminentemente humanas: talento y cariño. 
Talento y cariño (innovación y emoción) como piedra de toque del test de Turing. 
José Díaz Cappa (@josediazcappa) dejó varias "perlas".

  1. PRISM es una mezcla entre Minority report y La vieja del visillo
  2. Los menores en las redes sociales no mantienen siempre identidades individuales, a veces se trata de identidades grupales.

Esto es muy interesante. En Internet se tiende a equiparar usuario con persona cuando no es siempre así. Entre los menores es común que se comparta un usuario de Tuenti entre varios menores. A veces es un usuario falso que se usa para mofarse de un profesor, otras veces los jóvenes comparten la información más comprometida en estos perfiles de grupo o, incluso, ocurre que un menor "más mayor" haga de editor para colgar contenido generado por sus amigos.

José de la Peña comentó la necesidad de disponer de herramientas técnicas que soporten la privacidad porque únicamente la aplicación de leyes es claramente insuficiente.

Durante el turno de preguntas un asistente comentó el dato de que en algunas regiones (sudamérica, por ejemplo) hay hasta un 5% de personas sin identidad. Personas que no están en ningún registro, que no existen legalmente, que no se les puede imputar delitos.
Esto lo relaciono con el delito de usurpación del estado civil cuando el afectado no es usuario de Internet. ¿cómo perseguir este delito si el legítimo dueño de esa identidad no tiene presencia en Internet y no es consciente de las "andanzas" de su otro yo? Por ejemplo, el responsable de un asilo podría usurpar la identidad de los ancianos y operar con ella (por ejemplo, realizar operaciones financieras de alto riesgo).  


Seguridad en Internet, lucha contra la ciberdelincuencia y sistemas de interceptación policial

  • Moderador: José de la Peña. Director de SIC. 
  • Juan Luis García Rambla: Director Técnico de Seguridad en Sidertia Solutions. Responsable del equipo de implantación de sistemas de seguridad, auditoría y análisis forense de la organización.
  • Juan Antonio Calles García. Consultor senior de seguridad en Everis. Creador de Flu– AD, la herramienta de interceptación policial.
  • Carlos Represa Estrada: Director del Centro de Seguridad TIC Escolar. Coordinador de la Escuela de Seguridad en la Red
  • Cesar Lorenzana. Capitán en Grupo de Delitos Telemáticos de la Guardia Civil. Jefe de investigación de delitos telemáticos de la Unidad Central Operativa de la Policía Judicial
  • Silvia Barrera Ibáñez. Inspectora de la BIT.


José de la Peña puso la nota de humor al pedir que la comunidad hacker dejara de usar el término "troyano" para el software malicioso oculto dentro de otro software legítimo. José recordó que los troyanos de la Odisea no hicieron nada malo, simplemente fueron los receptores del caballo que estaba lleno de griegos.
Quizá la comunidad hacker debería usar el término "programar un griego" e "infectar con un griego". No tengo opinión, aún. 
Juan Antonio (@jantonioCalles) hizo una demostración "espídica" de Flu-AD. También planteó algunas cuestiones interesantes a sus compañeros de mesa.

Cesar Lorenzana (miembro del @GDTGuardiaCivil) dejó algunas ideas concretas y muy claras:

  1. El 95% de delitos en internet no son considerados graves por el legislador. 
  2. El problema principal es regulatorio, y no tecnológico. También rememoró el esfuerzo realizado por las fuerzas de seguridad del estado para poder afirmar ahora que tecnológicamente están a la altura de los "malos".
  3. Sobre el uso de "troyanos", recordó el famoso caso del hackeo de Finfisher cuando la herramienta para perseguir malos se convirtió en una puerta trasera de las propias fuerzas de seguridad.
  4. Comentó la limitación que supone el tener que documentar en diligencias las herramientas utilizadas durante la investigación. Esto haría inútil el desarrollo de un troyano policial ya que sería fácil desarrollar contramedidas (una vez que se ha hecho público el funcionamiento del mismo). La información del troyano quedaría a disposición de las partes personadas en el proceso.
  5. Mencionó la necesaria colaboración con el sector privado para el desarrollo (y uso) de los troyanos policiales.

No veo cómo se puede articular la colaboración del sector privado en esto. Imagino que el ejemplo sería SITEL pero el escenario no es precisamente igual. En el caso de SITEL, el escenario es sencillo y los actores están controlados: los operadores (un oligopolio fuertemente regulado) y los proveedores de telecomunicaciones (un oligopolio de facto). Sin embargo, el troyano policial presenta una dispersión de tecnologías y servicios mucho más grande (desde gigantes tecnológicos como Microsoft hasta start-ups como Spotbros). Tampoco me imagino a la Guardia Civil contratando un ejército de consultores para customizar, desplegar y operar troyanos que están ejecutándose en los sistemas de los malos. 

Silvia Barrera recordó la imposibilidad legal de utilizar agentes encubiertos (tampoco en Internet) y comentó la dificultad de equiparar Internet con las figuras conocidas en la legislación actual. Por ejemplo, se preguntó qué es una comunicación si el medio utilizado es el correo electrónico.

Ya en el turno de preguntas, Juan Luis García comentó los problemas de la inexistente cadena de custodia en los procedimientos civiles y mercantiles.
+1. No sólo se trata de explicar cuál ha sido el tratamiento que haces como perito, sino que, muchas veces, la evidencia digital no es tratada adecuadamente en los juzgados. Discos duros en cajas de cartón que se pasan años en una estantería sin proteger (ni limpiar) hasta que llega el perito y la única identificación que encuentras es un postit con un texto escrito a lápiz (por ejemplo, "2o disco duro").

También durante el turno de preguntas, se insistió en la necesidad de diferenciar claramente 
entre inteligencia y seguridad (e, incluso, ciberdefensa). 

Lo dicho, una mañana interesante en el CEU.

</ Innovación, derecho y seguridad>





El "modelo de negocio" de los troyanos gubernamentales

Un rápido comentario sobre la posible utilización de troyanos por parte de las fuerzas de seguridad del estado, presente en el último borrador del código procesal penal.

Algunas referencias:
La noticia en El Pais: http://sociedad.elpais.com/sociedad/2013/06/03/actualidad/1370289646_865495.html
El borrador en El Mundo: http://estaticos.elmundo.es/documentos/2013/06/04/codigo_procesal_penal.pdf (lo de los troyanos es el art. 350 y siguientes).

Aquí algunas opiniones de expertos en seguridad que conocen el tema de primera mano:
Chema Alonso: http://www.elladodelmal.com/2013/06/los-troyanos-policiales-del-borrador-de.html
Simón Roses: http://www.simonroses.com/es/2013/06/una-historia-de-troyanos-gubernamentales/


<Mi opinión>
Pero yo quería hablar sobre este tema desde otro punto de vista. El punto de vista del modelo operativo de la interceptación de comunicaciones visto desde  las fuerzas de seguridad del estado.
La cuestión clave es que el exitoso modelo de interceptación de llamadas de voz no es fácilmente aplicable a las comunicaciones de datos, aunque por supuesto los operadores interceptan las conexiones de datos desde hace tiempo.
Nota regulatoria: La interceptación legal de comunicaciones está regulada en la Orden ITC/110/2009 del Ministerio de Industria y está alineada con los estándares internacionales.
Nota histórica: recuerdo con nostalgia los equipos de interceptación de llamadas móviles que funcionaban sobre TMA (el móvil analógico de Moviline, Telefónica). También recuerdo cómo en el año 2000 (antes de SITEL) las interceptaciones en red se hacían "a mano": llegaba un fax con las líneas a pinchar y las conversaciones se guardaban en cinta de magnetofon directamente desde la MSC.

¿por qué digo que la interceptación de llamadas de voz funciona bien?
No sé cuántas líneas de voz (móviles y fijas) están pinchadas actualmente pero sí puedo afirmar que son muchas más de las que pensamos. Vamos a hacer el ejercicio de estimar el esfuerzo necesario para interceptar todas las líneas. Supongamos algunos datos de partida:

  • 10.000 líneas pinchadas, (es un supuesto, seguro que son más)
  • 1 hora diaria de media de conversaciones grabadas, (el consumo de voz de los malos también se erosiona)
  • 75% del tiempo de conversación es irrelevante, (los malos también llaman a sus madres por su cumpleaños)
  • 1,5 de factor de rendimiento, (esto significa que una persona puede analizar 1,5 horas de conversación en 1 hora, usando FastForward y otros "trucos" igual de avanzados)
Con esto datos, estimo que 300 personas podrían "procesar" todas las conversaciones y extraer las llamadas relevantes. Normalmente el primer filtro lo realizan personas sin formación que clasifican las conversaciones, hacen un resumen de las mismas y pasan todo esto a agentes "especializados". La única preparación que necesitan estos 300 "agentes" es dominar el idioma de los malos, saber manejar un reproductor MP3 y Word a nivel de usuario.

¿qué pasaría si intentáramos trasladar este modelo a las comunicaciones de datos?
Vamos a realizar un cálculo parecido:
  • 6.600 smartphones a controlar (suponiendo que la penetración de Smartphones en España -66%- es igual entre los delincuentes)
  • 20 MB de datos al día (la tarifa de datos más pequeña de Orange, por ejemplo, son 500 MB al mes)
  • 20 aplicaciones a analizar: clientes de email, mensajería, navegación Web, clientes VOIP, intercambio de vídeos, etc.
Todo esto supone que para analizar todas estas comunicaciones de datos haría falta unos 1.000 agentes especializados en dedicación exclusiva (estimación personal). 

¿por qué la interceptación de comunicaciones de datos en red no da buenos resultados?
Además del esfuerzo que requiere, el análisis de las comunicaciones de datos en red no da buenos resultados:
  • muchos servicios utilizan cifrado (también es cierto que el mecanismo de cifrado de algunas apps es realmente sencillo de romper, por ejemplo Whatsapp)
  • los malos pueden utilizar cifrado extremo a extremo para cifrar todas sus comunicaciones (por ejemplo usando VPN). Este cifrado no requiere que el otro extremo tenga el mismo mecanismo, al contrario que en el caso del cifrado de llamadas de voz, 
  • los malos pueden usar esteganografía para ocultar en la red la información relevante mezclada con gigas de información aparentemente irrelevante,
  • las comunicaciones pueden discurrir por varias redes de acceso (red móvil propia, red móvil en roaming, acceso WIFI público -hotspots-, acceso WIFI privado, etc.). 

La única solución para solventar estos problemas sería, precisamente, la propuesta del borrador comentado: utilizar troyanos instalados en los equipos de los malos.


En resumen, independientemente de las cuestiones políticas, éticas o legales la utilización de troyanos (o el "registro remoto sobre equipos informáticos") es la única solución viable para que las fuerzas de seguridad del estado puedan investigar los equipos informáticos de los sospechosos.

</Mi Opinión>

Big Data Analytics

Este caso es similar al de "Social media (Redes sociales y CRM)" (ver "CRM y redes sociales. Caso de uso" en este mismo blog). En un trabajo anterior hace un par de años hice un proyecto de consultaría para un cliente sobre "Big Data". El plan era compartir con el cliente una visión innovadora de Big Data, para luego ayudar al cliente a definir su estrategia en este campo. Por supuesto, el objetivo era "colocar" al cliente un par de proyectos de innovación (pruebas de concepto), luego seguir con unas cuantas soluciones (plataformas hardware y software) y seguir generando proyectos de implantación, integración, operación, etc.

El proyecto no avanzó mucho pero me permitió desarrollar una visión personal sobre Big Data, de lo que ahora todo el mundo habla.

Apuntes sobre Big Data Analytics
Personalmente, me gusta llamar a esto "Big Data Analytics" porque la existencia del concepto Big Data por sí mismo no supone nada si no se le aplica un componente activo (un verbo o una actividad, algo que se mueva). "Analytics" me parece bien como primera aproximación.

Para mí, las principales características paradigmáticas de "Big Data Analytics" son:
  • Datos procedentes de diferentes fuentes. Si la fuente es única estaríamos hablando, simplemente, de una base de datos muy grande. Una característica de Big Data es que hay varias fuentes de datos, que pueden ser organizaciones diferentes o "islas de datos" dentro de una organización. En los operadores telco, por ejemplo, es típico que la información de red (localización, presencia, uso de servicios, etc.) esté separada de la información de tarificación (datos económicos) e, incluso, del CRM (donde están los principales datos demográficos).
  • Formatos y estructuras heterogéneas. Aquí hablamos de información que no está toda en bases de datos normalizadas. A veces los proveedores de Big Data (internos a la organización o externos) entregan los datos en ficheros (CSV, XML, etc.) o entregan un API para hacer consultas a sus sistemas o entregan información en bruto que hay que procesar antes de que sirva como datos de entrada.
  • Información incompleta. En el sentido de que no se dispone de la misma información para todas las entidades. Dicho de otra manera, todos los registros no tienen información para todos los campos. 
  • Procesamiento dinámico. El reto del Big Data Analytics es procesar la información de forma "interactiva" (por no decir "en tiempo real´). Para mí no es Big Data Analytics los sistemas de Business Intelligence donde un ejército de consultores trabajan sobre datos del mes pasado para entregar un análisis el mes que viene, por ejemplo. 
Por supuesto, Big Data es, de alguna manera, "el mismo perro con otro collar". La historia de la informática es el reto de automatizar y hacer manejable la información existente en el mundo real. De hecho uno de los primeros usos civiles de los ordenadores fue gestionar los datos principales de todos los ciudadanos: el censo. La cuestión ahora es que la capacidad de generar y almacenar información crece exponencialmente y, como siempre, la información más valiosa no está normalizada, procede de fuentes insospechadas y ser el primero en aprovechar esa información otorga una ventaja competitiva incuestionable,  

Dicho esto, presento a continuación mi decálogo personal sobre Big Data Analytics:
  1. As bigger as you can afford. "Tan grande como puedas". Agregar toda la información disponible y construir mecanismos de análisis que recorran toda la información. De este a oeste, de norte a sur: toda la información de todos los departamentos de todas las divisiones (de todos los países, por supuesto). Y de arriba a abajo, hasta el más mínimo detalle (si, por ejemplo, existe información de consumo por hora hay que usar esta información en lugar de usar el consumo total mensual).
  2. Segments of one. "Segmentación de individuos". El segmento debe tener, como máximo, un elemento. ¿para qué sirve tener información detallada de nuestros clientes si luego los agrupamos en sólo cinco categorías diferentes? Ejemplo: si sabemos que Marisa Merlo Martínez lleva gastados este mes 340€ en su línea móvil, ¿qué sentido tiene meterla en el saco de "usuarios de ARPU alto"? 
  3. Automate actions as reponse. "Acciones automáticas como respuesta". Después de automatizar la adquisición y las consultas hay que ejecutar acciones también de forma automática. Ni reportes, ni workflows, ni indicadores de colores. El motor de Big Data Analytics debe lanzar aplicaciones que ejecuten acciones, incluso directamente sobre el usuario.
  4. Dynamic application profiling. "Ajuste dinámico de aplicaciones". Las aplicaciones automáticas deben realimentarse con el resultado de sus acciones y adaptar continuamente su estrategia futura en función de los resultados obtenidos.  
  5. Faster than customers. "Adelantarse a las decisiones del cliente". Big Data debe ser capaz de predecir las acciones de los clientes, adelantarse a nuevas contrataciones, cancelaciones, abandonos (churns), upsells, etc. Hay que saber lo que quiere hacer el usuario antes que el propio usuario.
  6. Data source mashup. "Revuelto de fuentes". Ante fuentes diversas y heterogéneas, hay que construir un "mashup" que presente "hacia arriba" un interfaz simple que puedan usar todas las aplicaciones Big Data para acceder a los datos de forma universal y sencilla.
  7. Real time. "Tiempo real". En realidad pocas soluciones IT son tiempo real, pero es importante que la solución Big Data "parezca" funcionar en tiempo real.
  8. Event based triggers. "Disparos basados en eventos". Aunque la solución de Big Data soporte información estática, son los eventos los que tienen que desencadenar las acciones. Por ejemplo, es apropiado que cuando un usuario de móvil aterriza en otro país reciba una oferta de roaming de datos de, exactamente, el consumo realizado en los últimos días. Pero no es apropiado despertar a un usuario a las 5 de la mañana para ofrecerle un descuento en factura porque a esa hora se ha terminado el ciclo de facturación del mes anterior. 
  9. Weight data criteria. "Ajuste de pesos". El peso de los datos depende de su relevancia, especificidad,  etc. Datos con poco peso: información demográfica, datos estáticos, información común a muchos grupos, agrupaciones de nivel superior (empresa, familia). Datos con mucho peso: información en tiempo real ("dónde estoy, especialmente si no es donde estoy habitualmente"), información individual, cambios en los parámetros de uso del servicio, etc.
  10. Don't say your sources. "No reveles tus fuentes". Si la información es poder, una solución Big Data es una gran ventaja competitiva, pero, a su vez, es fácil de replicar si se dispone de la información y los algoritmos utilizados.  

</ Big Data Analytics>