Un dato es lo que se conoce y que sirve como punto de partida para un razonamiento que tiene como objeto la determinación de una solución a un problema en relación con este dato. Puede ser una descripción elemental de una realidad, el resultado de una comparación entre dos eventos del mismo orden (medida), es decir, una observación o una medida.
Los datos brutos carecen de razonamiento , suposición , observación , probabilidad . Si se considera indiscutible o incluso si es indiscutible por ignorancia, puede servir de base para la investigación, para cualquier examen.
Como los datos pueden ser de naturaleza muy diferente según su fuente, a menudo deben someterse a una transformación previa antes de su procesamiento. Hasta hace unos siglos el ser humano solo conocía el mundo real a través de sus sentidos naturales, vista, oído, olfato, etc ... Su cerebro desarrolló una capacidad de razonamiento permitiendo llenar un poco los vacíos inherentes a la debilidad de sus sensores. . Esto le permitió desarrollar su inteligencia y desarrollar herramientas para aumentar su capacidad para conocer el mundo real.
La técnica que se utiliza hoy en día es la cuantificación digital en un sistema binario asociado con máquinas de procesamiento de dos estados. Claramente, esto significa que el mundo real es visto por sensores cuya respuesta continua o discreta se traduce en números que son procesados por computadoras.
A menudo se trabaja con datos en bruto para darle significado y así obtener información . Los datos pueden ser:
El resultado del tratamiento a menudo estará sujeto en última instancia a la interpretación de un ser humano y, por lo tanto, debe presentarse en una forma adecuada, por ejemplo, un gráfico o una lista de opciones. Esto permitirá al ser humano asociarle un significado (una interpretación) y así crear nueva información.
La definición de datos plantea cuestiones importantes en varias disciplinas científicas .
Etimológicamente, el término dado proviene del latín datum que significa "dar". Como señala Jensen en 1950, la historia debería haber conservado capere, o "captura" en francés. De hecho, para la ciencia se trata de seleccionar, de capturar en lo que existe en lugar de entender los datos como algo previamente "dado". Esta diferencia histórica destaca el carácter selectivo y parcial inherente a los datos.
Existen varias definiciones heterogéneas que intentan caracterizar los datos. Rob Kitchin (en) , en un capítulo dedicado a la caracterización de los datos, resume las distintas posiciones en dos visiones divergentes.
Según Rosenberg, los datos preexisten a las interpretaciones y argumentos que los convierten en hechos. Es decir, si un hecho es falso, deja de ser un hecho. Sin embargo, los datos falsos siguen siendo datos. Esta visión retórica de los datos les confiere varias características: son abstractos, discretos , agregados y sobre todo independientes de sus formatos y de su contexto (ya sea almacenados en una base de datos o en un libro , los datos siguen siendo los datos).
Otros autores, y en particular el campo de los estudios de datos críticos , consideran que los datos se construyen socialmente . Para ellos, los datos son una forma de poder, dependen de una ideología , de una forma de pensar inherente a quien los recopila y analiza.
Estar primero informado siempre ha sido una ventaja decisiva, ya sea en política o en la guerra. Obviamente, cuanto más relevante es la información en relación con el contexto, más se empuja la ventaja de quien la posee. En nuestro tiempo, esto sigue siendo cierto en estas áreas, especialmente porque el período de validez de la información se ha acortado considerablemente, lo que era relevante el día anterior ya no lo es necesariamente al día siguiente.
Hoy en día, los datos elementales que se utilizan para elaborar la información se producen en gran número, a diferencia de épocas anteriores, y ya no pueden procesarse con los mismos métodos. Para ser utilizados, los datos iniciales deben transformarse en un código digital, lo que inicialmente lo hace común. Para darle significado, los humanos deben contextualizarlo e interpretarlo. Entonces los datos toman todo su valor y se vuelven relevantes.
Las sociedades modernas se organizan en torno a los datos, ya sea para gestionar su economía o su política . En la era digital , la capacidad de recopilar y transportar datos a altísima velocidad ha estado en el origen del desarrollo de medios y métodos operativos distintos a los que estaban vigentes hace unos años.
La noción de valor asignada a estos datos se ha invertido y cuando intentamos definir el valor de esta unidad elemental, a menudo comenzamos analizando una forma construida de la noción de datos; hablamos así de datos abiertos , datos experimentales y big data , pero ¿cuánto vale un dato, entendido como un simple resultado de la observación o de la medición de la realidad?
Los datos adquiridos pueden vincularse a transacciones comerciales o directamente sin necesidad de realizar una mercantilización. El valor de los datos radica entonces en su uso.
Los datos se valoran a través de un proceso capaz de incrementar su valor en cada etapa de la transformación directamente o en combinación con otros datos. En general, el propósito es la explotación por parte de humanos para la toma de decisiones o por otro sistema que permita el control de procesos.
El cálculo es parte del proceso de transformación de la máquina y el juicio cualitativo que pertenece al ser humano es parte de la interpretación y da valor objetivo a la información final.
S. Chignard y LD Benyayer intentaron crear una cuadrícula interpretativa para la cuantificación de datos a partir de tres concepciones de valor:
A partir de estos axiomas , los datos se pueden interpretar a la luz de tres formas de valor.
Los datos se convierten en la materia prima de determinados agentes económicos, como los brokers de datos, empresas que “recopilan, almacenan, analizan y comercializan datos de consumidores”, como actividad principal de su negocio. Los datos sobre la condición médica de una persona pueden tener un valor de entre $ 15 y 20. En realidad, todavía no existe un mercado de datos real, ya que carece de la estandarización necesaria para el intercambio. Por estas razones, todavía no es concebible una cuantificación precisa y universal de los datos.
La recopilación de datos se puede realizar de forma primaria (el investigador es el primero en obtener los datos del campo de investigación) o secundaria (el investigador utiliza otras fuentes, por ejemplo, publicaciones existentes de otros investigadores). Las técnicas de análisis de datos varían e incluyen, por ejemplo, la triangulación o el llamado método de filtración de datos. Esta última metodología ofrece un sistema articulado para recolectar, clasificar y analizar datos utilizando, entre otras cosas, cinco posibles ángulos de análisis (al menos tres) para maximizar la objetividad del análisis y permitir la mirada más completa posible al objeto bajo investigación. es: análisis cualitativos y cuantitativos, revisión de la literatura (incluida la literatura científica), entrevistas con expertos y simulación por computadora. Luego, los datos se "filtran" de acuerdo con una serie de pasos determinados para extraer la información más relevante.
La razón principal para mantener la integridad de los datos es promover la observación de errores en el proceso de recopilación de datos. Estos errores pueden ser intencionales (manipulación deliberada) o no intencionales (errores aleatorios o sistemáticos).
Dos enfoques pueden proteger la integridad de los datos y garantizar la validez científica de los resultados de los estudios inventados por Craddick, Crawford, Rhodes, Redican, Rukenbrod y Laws en 2003:
Su principal objetivo es la prevención , que es ante todo una actividad rentable para proteger la integridad de la recogida de datos. La estandarización de protocolos es el mejor ejemplo de esta rentable actividad, que se elabora en un completo y detallado manual de procedimientos para la recolección de datos. El riesgo de no identificar problemas y errores en el proceso de investigación es obviamente causado por pautas mal redactadas. A continuación se muestran varios ejemplos de tales fallas:
Dado que las acciones de control de calidad tienen lugar durante o después de la recopilación de datos, todos los detalles se documentan cuidadosamente. Una estructura de comunicación claramente definida es necesaria como requisito previo para el establecimiento de sistemas de vigilancia. No se recomienda no estar seguro del flujo de información, ya que una estructura de comunicación mal organizada da como resultado una supervisión laxa y también puede limitar las posibilidades de detección de errores. El control de calidad también es responsable de identificar las acciones necesarias para corregir las prácticas de recopilación de datos defectuosas y minimizar dichos sucesos futuros. Es más probable que un equipo no se dé cuenta de la necesidad de tomar estas acciones si sus procedimientos están escritos de manera flexible y no se basan en comentarios o educación.
Problemas de recopilación de datos que requieren una acción rápida:
El valor de los datos depende de su uso, que cada día es más eficiente. Los datos serán el verdadero instrumento que permitirá cruzar la barrera del tiempo : el análisis de datos es la base sobre la que intentamos racionalizar la toma de decisiones. El objetivo final del análisis de datos es predecir lo que sucederá en el futuro, con un margen de error insignificante.
Finalmente, el valor de los datos se puede interpretar con respecto a un activo estratégico . Se convierten en una fuente preciosa, desde rara, para poder explotar. La empresa propietaria puede, por ejemplo, convertirse en el punto de acceso exclusivo a la información que solo ella posee, o ser capaz de reforzar las barreras a la movilidad.
Por tanto, la determinación del valor de un dato puede calcularse (Vatin, 2012) a partir de su uso subjetivo, que basa la valoración en el proceso de transformación de los datos y en sus características cualitativas.