En lo que respecta a recopilación y tratamiento masivo de datos hay varios términos que usan los aspectos que es frecuente confundir (a nosotros nos pasa). Lecuona y Villalobos (2018, p. 2) afirman que, al asignar a una persona o grupo características particulares, un individuo se convierte en un componente de un colectivo que genera preocupaciones sobre la discriminación consciente e inconsciente como resultado del uso de grandes datos en la toma de decisiones. La discriminación bajo este enfoque de las tecnologías disruptivas es un riesgo a tomar en cuenta, máxime cuando la toma de decisiones es cada vez más automatizada. Mantelero advierte que una evaluación centrada en los derechos humanos debe dar una mejor respuesta a la demanda de una evaluación integral que incluya no solo la protección de datos, sino también los efectos del uso de los datos sobre los derechos y libertades, como la libertad de expresión, de reunión, de movimiento y también derechos como la no discriminación (2018, p. 771).

Este caso involucra el uso de técnicas de big data para recabar información de personas sospechosas con la intención de prevenir y sancionar actos terroristas. En este caso, el señor Schrems -ciudadano europeo- hizo el señalamiento de que sus datos estaban siendo tratados en los Estados Unidos a consecuencia de un acuerdo de puerto seguro, pero que en realidad tal no existía, por lo cual acude al Tribunal para que cesara el tratamiento de datos por parte del país norteamericano. Entre los resultados de dicho caso, se decidió «suspender la transferencia de datos personales a otros países cuando crean que no cumplen con un nivel adecuado de protección» (Puerto & Sferraazza-Taibi, 2017, p. 223).

Es vital combinar Inteligencia Artificial con IoT y big data

A pesar de que el derecho a la privacidad es considerado un derecho humano, su protección en la era de la Internet es incierta, en principio por la manera en que se obtiene, resguarda y usa la información (Ureña, 2019, p. 101), pues esta red informática es descentralizada y aquello permite a distintos actores no estatales el tratamiento de datos de los individuos. Ejemplo de esto es la Ley de Privacidad del Consumidor de California, en los Estados Unidos, que se opone a limitar el derecho de las empresas norteamericanas a recolectar los datos de sus consumidores (Duchene, 2019, pp. 2-3), así los datos se consideran como cualquier otra mercancía susceptible Por qué un curso online de desarrollo web es imprescindible para aprender la profesión de comprarse y venderse. Es importante también, tener en cuenta cómo en el área de la industria y los negocios se ha presentado una explosión en el número de datos, causada principalmente por el rápido desarrollo del internet, nuevos conceptos como el internet de las cosas y la computación en la nube. Big data se ha constituido como un “tópico caliente” que atrae la atención no solo de la industria, sino también de la academia y del Gobierno. Los autores presentan desde diferentes perspectivas el significado y las oportunidades que nos brinda el ecosistema Big Data y dan una serie de condiciones necesarias para que un proyecto de Big Data sea exitoso.

  • Tómese como ejemplo la Armada Electrónica Siria, que en 2011 utilizó cuentas de Facebook falsas, software de monitoreo y virus informáticos (como troyanos y malware) cuyo objetivo era conocer las prácticas de los disidentes del Gobierno (Nersessian, 2018, p. 848).
  • El análisis de grandes cúmulos de datos incluye la aplicación de un análisis veloz y sofisticado en donde la información de individuos y de grupos humanos es obtenida de diversas fuentes.
  • Sin embargo, es preciso que estas discusiones se alimenten tanto de los insumos técnicos, como también de las consideraciones éticas que presentan estas nuevas formas de sintetizar y analizar la conducta humana al interior de la sociedad.
  • Cabe aclarar que en este documento no se reportará la totalidad de los artículos arrojados por la herramienta, se ha realizado una selección de los documentos que cubren la temática, permitiendo tener una visión general del estado del arte y de las tendencias y campos de trabajo.

Esta disciplina, conocida como Ciencia de Datos (Data Science en inglés) es la segunda componente en la metodología de análisis de datos a gran escala. Este último punto es uno de los argumentos prevalentes en la discusión de los potenciales riesgos de Big Data en el contexto clínico. Un método de protección es anonimizar los datos, removiendo información que permita identificar individuos directamente; este es un método en uso hoy en día. Sin embargo, en el contexto de Big Data, el volumen y la variedad de datos de un mismo paciente podrían estar correlacionados con datos obtenidos de otras fuentes, como transacciones comerciales26, revelando su identidad y dejándolo desprotegido.

Formación a empleados, la tecnología como base para cambiar el futuro

A pesar de que el término Big Data se asocia principalmente con cantidades de datos exorbitantes, se debe dejar de lado esta percepción, pues Big Data no va dirigido solo a gran tamaño, sino que abarca tanto volumen como variedad de datos y velocidad de acceso y procesamiento. En la actualidad se ha pasado de la transacción a la interacción, con el propósito de obtener el mejor provecho de la información que se genera minuto a minuto [2]. Por otra parte, en las normas dictadas por el Con sejo de Organizaciones Internacionales de las Ciencias Médicas (CIOMS) de 2016, se da la posibilidad de re colectar y almacenar datos con fines de investigación, haciendo uso de un consentimiento informado amplio43. En consecuencia, ya se han emprendido iniciati vas como para generar registros de datos médicos que puedan servir para investigaciones futuras, donde en el presente no se tiene claridad de la pregunta de in vestigación a la que pueden dar respuesta.

  • Se trata de una realidad importante que hemos de tener en cuenta y que debe hacernos reflexionar sobre la efectividad de alguna de las normas vigentes en materia de datos personales ENT#091;…ENT#093; (2016, p. 29).
  • La segunda estrategia comprende el análisis de algunos trabajos particulares referentes al soporte y estructura conceptual de la temática abordada.
  • Así también, se pretende brindar algunos ejemplos en los cuales se están usando este tipo de da tos en el ámbito de la pediatría.
  • Mientras que en Estados Unidos se debate fuertemente sobre el rol que tuvo la plataforma de Facebook en facilitar la difusión de publicidad pro-Trump a partir de anuncios comprados por cuentas falsas vinculadas a Moscú.
  • Por supuesto, esto no agotan los dilemas que se han erigido sobre la relación entre política y redes sociales.

El machine learning o aprendizaje máquina es el trasfondo principal de Mahout y corresponde a un subcampo de la inteligencia artificial que se centra en el mejoramiento de procesamientos computacionales a partir del análisis de experiencias previas. Grant Ingersoll en [33] presenta una descripción de algunos de los más recientes algoritmos implementados en Mahout, resumiéndolos en la Tabla 3, la cual se presenta a continuación. Sin embargo, se presenta aún una marcada tendencia hacia los aportes de tipo conceptual, https://ekuatio.com/por-que-un-curso-online-de-desarrollo-web-es-imprescindible-para-aprender-la-profesion/ son pocos los resultados y hallazgos que permitan realmente vislumbrar de forma tangible sus beneficios frente a otras tendencias o tecnologías tradicionales. Los trabajos se concentran, en su gran mayoría, en asociar Big Data a grandes volúmenes de datos o a la distribución de procesamiento. En el primer caso, no es claro cuál es la cantidad de datos que permite esta calificación; y para el segundo, no hay coincidencia en determinar para qué tipo de datos el procesamiento distribuido consigue mejores resultados.

El 76% de los clientes que interactúan con la IA tiene experiencias positivas

Por ejemplo, utilizar aplicaciones como Google Glass, Epson Moverio, Pebble y Fitbit (Wei, 2014, p. 53), que monitorean las actividades de sus usuarios, hace posible reconstruir el mundo alrededor de ellos por medio de coordenadas de localización, velocidad de movimiento y dirección, así como gracias a las fotos de alta resolución y, en algunos casos, hasta la captura de sonido (Paterson & Maeve, 2018, p. 4). Aunque no existe una definición formal del término, su uso se refiere a grandes cantidades de datos o información digital que requiere equipos de cómputo de alto rendimiento y programas o técnicas de análisis especializadas para su procesamiento e interpretación. Su gran atractivo es que permite obtener relaciones, patrones y resultados, que no son accesibles mediante otras metodologías (Oficina de Información Científica y Tecnológica para el Congreso de la Unión, 2018, p. 1). Map Reduce [8] es un modelo de programación asociado a las implementaciones que requieren procesamiento y generación de grandes bases de datos. Los cómputos se hacen en términos de una función de mapeo y otra de reducción y el cálculo se hace de forma paralelizada. Los autores muestran Map Reduce como un modelo que facilita el trabajo con sistemas paralelos y distribuidos, ya que oculta detalles de paralelización, tolerancia a fallos, optimización y balance de carga.

Varios trabajos donde se ha tomado Hadoop como base y se ha potencializado algunas de sus características o se ha fusionado con otra herramienta o tecnología. Otro aspecto importante para tener en cuenta es que estos datos corresponden a una muestra de sujetos u objetos de estudios que no han sido seleccionados aleatoriamente, por lo cual es susceptible que tengan sesgos de selección39. La metodología que ha sido el foco de nuestra discusión se basa en el análisis de registros de datos existentes; en otras palabras, en el resultado de analizar lo que hemos observado hasta el presente. Si nuevamente nos enfocamos en predicción, ¿cómo aseguramos que un método efectivamente puede predecir una respuesta a una observación futura en vez de limitarse a modelar las relaciones que existen sólo en los datos existentes?. Astera Centerprise utiliza tecnología que prepara, limpia, valida y almacena datos de manera precisa y eficiente.