El mal uso de los algoritmos en el ámbito laboral o la negativa de las empresas a revelar información sobre inteligencia artificial la voz del pueblo en transacciones comerciales. Hasta ahora, las visitas públicas no han podido abordar este tema, pero el vicepresidente y el presidente del Trabajo, sin embargo, varios expertos han cuestionado algunos problemas en la producción de pornografía en estos resultados.
El pasado mes de junio, el famoso catalán ara a Amazon al negarse a revelar el trabajo de los algoritmos en el sitio Prat delobregat (Barcelona). Aunque los positivos fueron sólo estimaciones, más de 2.400, fueron muy importantes al negarse a negar a la empresa leer los detalles de su trabajo algorítmico.
Hasta ahora, no hay muchas de estas opciones. Pero el juzgado nacional de Nay en Nay en Nay también condenó a la empresa Centro Centro Nadie pudo negarse a informar a los representantes del sindicato CGT en la empresa sobre el uso de algoritmos que dicen no utilizar, pero se confirmó que los presos sí los utilizaron. En este caso, el tribunal determinó que la Compañía había violado esta disposición. 64.4.D de la legislación laboral, que requiere que usted proporcione información sobre el diseño y funcionamiento de algoritmos.
El objetivo del personal es incrementar la valoración, en su caso, de las medidas disciplinarias relacionadas con la propiedad intelectual. Pero los inspectores del Consejo tuvieron diferentes oportunidades de utilizar este nuevo método. La presidenta del Sindicato de Directivos Sindicales y de Seguridad, Ana Ercoreca, defiende que la constitución permite al sindicato aprobar la organización. Y asegura que la infracción de la ley mencionada en el artículo 64.4 anterior.
De hecho, explica que ya ha iniciado acciones al respecto. Entre ellos, el tema que protagoniza todo tipo es el de proporcionar subcontratistas (algo permitido por la ley) Ercoreca dijo: «Entonces la deslocalización es el traslado de trabajadores, pero esta violación ha llegado a través de algoritmos.
Del mismo modo, añade, se han dado casos en los que se hace la elección y los inspectores se dan cuenta de que no hay solteros y no se dan cuenta por culpa de la herramienta de IA. En tales casos, el consentimiento de la empresa propietaria de este instrumento puede basarse en la no injerencia, derecho que se establece en la forma de empleo.
De la misma manera, también se ha recibido el comportamiento relacionado con la discriminación que también se da, el cual está disponible en la plataforma de la plataforma que envía a trabajadoras embarazadas. «En lugar de dividir el trabajo según las horas de dificultad, el algoritmo las envía para que nadie reciba la productividad», argumentó.
Algunos observadores sostienen que se está abordando esta discrepancia. El responsable del Consorcio para la Investigación de CSIF, Miguel Ángel Monterto, considera que los gestores «parecen tener un agujero negro, porque la plataforma lo hace menos difícil». Según Montenyo, «la velocidad con la que se utilizan algoritmos en el trabajo está creciendo: actualmente, los usuarios más habituales de los mismos son los lugares de inspección y análisis y la iluminación ambiental».
Este coordinador también se queja de la falta de cualificación para interpretar las herramientas y entender cómo se utilizan. Aunque reconoce que el personal del trabajo es muy consciente de ello e incluye formación especial de este tipo en el pasado de la escuela de formación de la organización.
La falta de profesionales cualificados es el principal factor que dificulta que el profesor Chuma y Plapforc Research Adrián Socianí también afronte la batalla contra la legislación sobre IA. Estos cursos están relacionados con estos dos roles. Les asegura que la ley española les permitirá controlar a las empresas que violen la legislación laboral, así como a través de la Ley de Datos, que explicará más sobre el uso de algoritmos en las empresas. En estos casos, la agencia de protección de datos es responsable de implementar el producto, pero la autoridad de control, transparente, puede acusar a la empresa de incumplir la política sin perjuicio, por ejemplo.
«Si se está llevando a cabo una investigación [del organismo] Topolí dijo: «Tendrá la oportunidad de encontrar trabajo y cómo identificar el peligro de Ai.
Palabras
Del mismo modo que el sistema de inspección, el responsable de sabiduría de minería de UGT, critica a las empresas que facilitan información sobre los algoritmos que utilizan, porque saben que no les pasará ningún huevo. «Estas denuncias están vinculadas a la legislación europea que se está construyendo en materia de propiedad intelectual (el lo hace) Ver en el campo que se ha comenzado a trabajar requiere un autoanálisis algorítmico de los programas de trabajo antes y después de su implementación. Asimismo, esta norma ya prohíbe el uso, por ejemplo, de métodos de identificación y sentimiento a través de dispositivos biométricos.
Sin embargo, el jefe del portaequipajes del antiguo europeo, Iban García Del Blanco (hoy director internacional de Lasker), no sabe que equipos similares puedan combinarse con syyike. «Será muy difícil cómo preparar la simulación y su finalidad; será como controlar la implementación de robots, máquinas perforadoras. Además, no será innato», afirma. Además, se centra en que la parte del sistema en la que se establece el sistema de planificación, así como la distribución del poder (quién puede establecerlo), no entrará en vigor hasta el 2 de agosto de 2026.