La nueva teoría dice que cualquier subproducto de información que surge del quehacer cotidiano de una organización tiene valor y merece ser almacenada y luego estudiada junto con millones de otras para extraer patrones, ideas de nuevos negocios, etcétera. Paul Luehr, quien fue durante 11 años fiscal general del Departamento de Justicia y de la Federal Trade Commission, dice que la supuesta panacea de big data tiene su aspecto negativo, al menos en lo que a la actividad financiera y contable se refiere: la información no esencial no solo traba la red interna sino que aumenta el riesgo de litigar y de cíber ataques.
Hay, en los departamentos financieros de una organización, una montaña desorganizada de material no esencial: memorandos, borradores, presentaciones, informes y hojas de cálculo, todo desparramado por las redes de la compañía. Todo eso puede ser analizado por litigantes hostiles, reguladores o hackers usando las mismas técnicas de big data que emplean los magos del marketing. Por lo tanto, si no se administran adecuadamente, estos grandes datos internos pueden aumentar los riesgos y elevar los costos. Para mitigar el riesgo una compañía debe decidir qué datos mantener y cuáles borrar.
De hecho, dice Luehr, el análisis de big data se ha convertido en la materia prima de muchos litigios. Hasta el más común juicio por despido implica analizar montañas de datos obtenidos de múltiples lugares: servidores de emails, servidores de archivos, discos duros, cuentas de email y smartphones. Los juicios más importantes llevan el análisis un poco más allá. Usan reconocimiento óptico de caracteres, herramientas de3 evaluación de casos y modelos computarizados de predicción. Esos recursos y muchos otros reemplazan semanas de revisión humana de documentos.