No se puede negar que el big data es una herramienta clave, precisamente, para la generación de nuevos saberes en la denominada sociedad del conocimiento, entendida como «aquella donde las interrelaciones que vinculan a los individuos se sustentan a través del acceso y procesamiento de información con el propósito de generar conocimiento, primordialmente, a través de las tecnologías de la información y la comunicación (TICS)» (Ávalos, 2013, p. 5). El presente artículo tiene como objetivo brindar al lector una aproximación sobre los estudios publicados en los últimos años que dan cuenta del manejo de la infraestructura tecnológica y la gestión del conocimiento que se genera a través de los análisis de grandes cúmulos de datos o macrodatos (conocidos también como big data analytics) relacionados al tema de los derechos humanos. Debido a la enorme cantidad de datos generados por la sociedad hoy en día, conceptos como Big Data, curso de ciencia de datos Minería de datos, Analítica de datos y Open Data se abren paso como herramientas que permiten su tratamiento, consulta y análisis. A través de la aplicación de algunos algoritmos de Inteligencia Artificial (IA) y Machine Learning (ML), y gracias a la Datificación, dichas herramientas pueden ayudar a encontrar y comprender patrones de comportamiento en los procesos sociales de una comunidad. Eso permite codificar y convertir en datos cuantificables todas las actividades que son poco susceptibles de medición (Stein et al., 2019). Esta realidad afecta directamente las tareas de los gobiernos, las empresas o los
investigadores y reafirma la importancia de las operaciones de recopilación,
análisis y representación de la información, asociadas con técnicas basadas en el
cálculo y la cuantificación, y en donde adquieren mayor trascendencia la
intersección entre medios de comunicación, tecnología y sociedad.
A pesar de existir leyes contra el mal tratamiento y uso de los datos, estas aún son deficientes y tienen vacíos legales, que organizaciones privadas aprovechan para su beneficio y el de sus clientes. Por ejemplo, los sistemas de puntaje crediticio, como Datacrédito en Colombia, Inforcorp en Perú, o Dicom en Chile, que hasta hace un tiempo solo registraban el comportamiento crediticio pasado de los consumidores, y de acuerdo a este, calificaban el usuario. En la actualidad estos sistemas aplican algoritmos para predecir la probabilidad de incumplimiento crediticio y toman decisiones de forma autónoma, sin que el usuario tenga posibilidades de argumento (Urueña, 2019).
Revista chilena de pediatría
En este sentido, los investigadores quedan a merced de las empresas que sirven de intermediarios, en la medida en que estás deben poner la información a disposición, muchas veces de manera limitada. Adicionalmente, esto abre todo un campo de discusión sobre los dilemas éticos que plantea el uso de información privada. Si bien las plataformas de micro-blogging han ido acomodándose a las regulaciones existentes en distintos contextos institucionales -y viceversa-, cuestiones como el consentimiento del uso de la información quedan muchas veces en “zonas grises” de interpretación.
Aunque muchos aspectos de la globalización contemporánea se basan en precedentes coloniales europeos, generalmente los estudios globales no aceptan sin crítica los patrones de la globalización económica, política y cultural que se fraguaron desde Occidente. En este sentido, reconocen que los problemas, dinámicas y tendencias globales se aprecian de manera diferente desde distintas partes del mundo y, dentro de un mismo país o región, desde diversas ubicaciones, https://aquinoticias.mx/conviertete-en-un-cientifico-de-datos-exitoso-con-el-bootcamp-de-ciencia-de-datos-de-tripleten/ dependiendo del lugar social y económico que ocupen quienes perciban estos fenómenos. Por lo tanto, los estudios globales proponen hablar de múltiples globalizaciones, reconociendo que no hay un paradigma o perspectiva dominante que se valore más que otros (Juergensmeyer 2013, XIII-XVII). La ciencia de datos es considerada un enfoque novedoso y promisorio empleado en la obtención y análisis de información en múltiples disciplinas científicas.
Pruebas de la NASA con maniquí de Artemis I aportan información para futuras misiones tripuladas
Sin haber tomado plena conciencia del uso de las tecnologías, los individuos comenzamos a modificar nuestra manera de ver noticias, hacer compras e incluso comunicarnos. Se han «modificado nuestros hábitos y costumbres de ocio y laborales o profesionales, como consumidores, en nuestras relaciones como ciudadanos con las diferentes administraciones y en las relaciones con otras personas» (Garriga, 2016, p. 20). En el uso de estas nuevas herramientas se nos requirió compartir información sobre nosotros mismos, crear perfiles, tener contraseñas, hacer uso de aplicaciones so pena de quedar excluidos de ciertos grupos de no hacerlo. Así se dio el comienzo de una sociedad hiperconectada que genera datos a cada segundo, generando la materia prima de los análisis de grandes volúmenes de datos que utilizan desde el reconocimiento facial, la geolocalización y los estados de ánimo hasta el historial de sitos frecuentados, los gustos gastronómicos y el nivel de gastos, entre muchos otros indicadores. Es necesario entender y dimensionar el hecho de que la técnica de análisis de grandes cúmulos de datos no solo afecta la privacidad de los individuos, sino que también hay otros derechos humanos que pueden verse afectados con un manejo irresponsable de esta información.
Calvo Guirado fue catedrático de la universidad católica entre 2015 y 2021, un periodo en el que firmó ۱۱ de los estudios hoy retractados. La institución sacaba pecho de que su profesor estaba “posicionado en el número quince del mundo en investigación sobre implantología dental”. Un portavoz de la universidad se limita ahora a señalar que el odontólogo ya “no tiene vinculación” con la organización murciana, sin dar más explicaciones. Sus otros 23 estudios ya retractados se publicaron entre 2009 y 2015, cuando era profesor de la Universidad de Murcia. El goteo de retractaciones ha continuado y ya son 10 revistas especializadas, de cinco editoriales distintas, las que han retirado 34 estudios de Calvo Guirado, pero el odontólogo mantiene su versión de la gran conspiración contra él. “Esto es una cosa que me ha venido del aire, han empezado a ir a por mí, como cuando encuentran alguna cabeza de turco y empiezan a darle”, afirma por teléfono.
Detalles del artículo
En cualquier caso, se remarca el carácter profundamente transdisciplinar de la aproximación que requieren los fenómenos aquí estudiados. Este trabajo intenta comprender las prácticas documentales en el contexto del big data y del open data; una cuestión que se desarrolla siempre en el marco de una creciente automatización en diversos frentes. En niveles internos, también destacan la puesta en práctica de nuevos lenguajes, como el caso
de El País, descrito por Rubio-Lacoba (2012). Un lenguaje colaborativo que se puede definir como
una folksonomía controlada, cuya base es la indexación social y por objeto la
indización/categorización de las noticias.
- Por lo tanto, el uso masivo de datos y las técnicas de investigación asociadas a su obtención e interpretación no son ajenos a las limitaciones intrínsecas de cualquier método de investigación científica derivadas de los contextos específicos en que surgen.
- Calvo Guirado, uno de los científicos más citados del mundo según la clasificación de la Universidad de Stanford (EE UU), sostiene que no ha hecho “ninguna trampa” en su vida.
- En [34] se presenta una clasificación de las técnicas de Big data en técnicas estadísticas, métodos de optimización, minería de datos, técnicas de machine learning (aprendizaje máquina), técnicas de clasificación y Clustering y técnicas de análisis y regresión.
- La ventaja de emplear el aprendizaje automático frente a otras técnicas estándar que duran años es que el proceso de identificación puede realizarse en cuestión semanas, con una reducción de costos considerable, sumado a una probabilidad muy alta de éxito.
- En tercer lugar, la visualización de los datos, con la IA se puede lograr incluir la captura de capacidades de visualización de conocimiento para facilitar el análisis de datos, un enfoque es crear aplicaciones inteligentes de visualización para determinados tipos de datos.