domingo, 9 de marzo de 2025

Juego de la Oca de la Propiedad Intelectual

 

Quedó publicado a disposición de quien le pueda gustar intentar jugar, una versión del juego de la oca con preguntas de la Propiedad Intelectual.

https://juegodelaocadelapi-beatrizbugallo.blogspot.com/

¡Me cuentan si les gustó!

Transcribo a continuación la presentación: 

 El Juego de la Oca, juego de mesa en tablero de espiral, tiene raíces históricas muy remotas.

Ha acompañado a la Humanidad y sus cambios durante miles de años, probablemente. Aunque su estructura actual surge hace unos cuatrocientos años aproximadamente.

Desde chica me gustaron los juegos de mesa en general, los de la oca y tantos otros. Pero lo que detonó mi interés por implementar esta idea fue un “Jeu de l'Oie biblique”, facsimilar de juego histórico, que compré cuando visité el Museo de la Reforma en Ginebra en el año 2018. Justamente estaba haciendo el curso para profesores de Propiedad Intelectual OMPI-OMC y la asociación juego de mesa – propiedad intelectual salió sola. Me decidí a hacer un Juego de la Oca de la Propiedad Intelectual. Demoré, pero llegó el día.

Me divertí muchísimo pensando la adaptación del formato para mi idea. Investigué varios aspectos y en ese conocer del tema me entusiasmó mantener lo más posible de la tradición ancestral en cuanto a la figura de la Oca, de la espiral, de los números de las casillas especiales.

Además del Tablero, las Reglas de Juego y las Preguntas (tres elementos que podés imprimir para jugar) presento algunos datos de la investigación que pueden interesar a entusiastas del tema."




El título de las obras y su protección jurídica


 

El próximo miércoles 12 de marzo, a las 18.30 horas vamos a presentar el nuevo libro.

Quedan invitados. Se realizará en la Sala del Autor, de AGADU, Canelones 1130.

Se transmitirá vía streaming en el canal Youtube de Fundación de Cultura Universitaria.


sábado, 1 de marzo de 2025

Self-preferencing en plataformas digitales



El self-preferencing, auto-preferencia en español, es una práctica comercial en la que las plataformas digitales favorecen sus propios productos o servicios sobre los de terceros que utilizan su plataforma. Este comportamiento ha cobrado relevancia en el debate sobre competencia digital, ya que las principales empresas tecnológicas operan simultáneamente como intermediarios de mercado y como competidores en esos mismos mercados.

Explicaré su concepto básico.

El self-preferencing tiene lugar cuando una plataforma digital con poder de mercado utiliza su posición como guardián de acceso (gatekeeper) para dar un trato preferencial a sus propios productos o servicios.

Se manifiesta de diversas formas:

a posicionamiento preferencial para productos o servicios propios en posiciones destacadas en resultados de búsqueda o recomendaciones;

b integración vertical, utilizando datos de competidores para desarrollar productos competitivos;

c acceso a datos, reservando ciertos datos o funcionalidades exclusivamente para servicios propios;

d mediante el establecimiento de condiciones comerciales con términos más favorables para las ofertas de la propia plataforma.

Suele mencionarse casos como la investigación de Google Shopping, en la Unión Europea que terminó con la imposición de una multa de 2.420 millones de euros en 2017 a Google. La Comisión determinó que la investigada favorecía sistemáticamente su servicio de comparación de precios "Google Shopping" en sus resultados de búsqueda, relegando a competidores a posiciones menos visibles.

Otro caso es el denominado Amazon Marketplace, cuando esta empresa fue investigada por presuntamente utilizar datos confidenciales de vendedores terceros en su marketplace para desarrollar productos propios competitivos y darles mayor visibilidad en la plataforma.

También está el caso de Apple App Store, durante cuyo desarrollo dicha empresa fue investigada por las políticas de su App Store. Se entendía que favorecían sus propias aplicaciones y servicios, como Apple Music frente a competidores como Spotify, imponiendo comisiones a transacciones dentro de aplicaciones de terceros.

En los comienzos el self-preferencing en el Derecho de la Competencia se se analizaba como aplicación de las doctrinas de negativa a contratar, discriminación o ventas atadas.

Posteriormente fue mereciendo un desarrollo específico, como categoría distinta de abuso que tiene lugar particularmente en mercados digitales con características específicas tales como: efectos de red fuertes, economías de escala y alcance, dependencia de los datos, altos costos de cambio para usuarios. En esta mirada, propia del Derecho de la Competencia, más precicsamente Defensa de la Competencia, queda el debate respecto de si se trata de aplicar al caso la rule of reason o la per se rule para su calificación.

Las prácticas de self-preferencing pueden generar diversas distorsiones en el mercado.

Pueden provocar reducción de la competencia. Los competidores pueden verse excluidos efectivamente del mercado a pesar de ofrecer productos superiores.

También pueden generar efectos de apalancamiento, dado que las plataformas pueden extender su dominio de un mercado a otro.

Generan desventajas para consumidores, porque hay menos opciones, menor innovación y potencialmente precios más altos a largo plazo.

Finalmente, como se refuerza la posición dominante de las plataformas establecidas, aparecen barreras de entrada.

El self-preferencing suele evaluarse como potencial abuso de posición dominante. Por lo ntanto corresponderá siempre comenzar por la determinación de mercado relevante y posición dominante. Hay en estos casos indicadores que, junto con el análisis de cuotas de mercado que existan están dando la pauta de la situación abusiva. Podemos citar como tales al control de datos esenciales, función de gatekeeper, dependencia económica de usuarios empresariales, capacidad de orquestar ecosistemas enteros.

En general se ha apreciado que el self-preferencing constituye un abuso cuando se puede identificar desviación de la competencia basada en méritos. La práctica debe distorsionar la competencia más allá de la ventaja inherente a la integración vertical. Debe tratarse de una plataforma indispensable, adquiriendo relevancia la "doctrina de las instalaciones esenciales" cuando la plataforma constituye un punto de acceso ineludible al mercado. Deberá ser un caso de ausencia de justificación objetiva y los efectos de la exclusión han de demostrar capacidad para excluir competidores igualmente eficientes por parte de la plataforma.




LINKS para profundizar:


https://centrocompetencia.com/amazon-reino-unido-problemas-self-preferencing/


Bima Alfian, F., Murniati, R. Self-preferencing: Practices and Characteristics of Abuse of Dominant Position in Digital Markets.

https://www.researchgate.net/publication/382767899_Self-preferencing_Practices_and_Characteristics_of_Abuse_of_Dominant_Position_in_Digital_Markets


Binotto, A., & Deluca, P. (2023). Self-preferencing entre todo y nada: en busca de una definición según la ley brasilera de defensa de la competencia. Latin American Law Review11, 73-92. https://doi.org/10.29263/lar11.2023.04

https://revistas.uniandes.edu.co/index.php/lar/article/view/1448


Imagen:

Copernican System of the Universe

Andreas Cellarius, 1660

https://publicdomainreview.org/product/copernican-system-of-the-universe/


viernes, 28 de febrero de 2025

Astroturfing y Astroturfing Digital



El astroturfing es una práctica de manipulación en la comunicación pública donde se crean campañas que aparentan ser movimientos espontáneos y populares (de base), cuando en realidad están orquestadas por entidades con intereses particulares.




El término "astroturfing" deriva irónicamente de "AstroTurf", una marca de césped artificial, contraponiéndolo a los movimientos "grassroots" (raíces de hierba) que son genuinamente populares.

Dice Wikipedia:

AstroTurf fue co-inventado en 1965 por Donald L. Elbert, James M. Faria, y Robert T. Wright, los empleados de Monsanto. Fue patentado en 1967 y vendido originalmente bajo el nombre de Chemgrass. Su nombre fue cambiado a AstroTurf por John A. Wortmann, empleado de la compañía, después de su primer uso, muy publicitado, en el estadio Astrodome de Houston en 1966.

https://es.wikipedia.org/wiki/AstroTurf

La empresa: https://astroturf.com/


El astroturfing digital es la adaptación de estas prácticas al entorno online, utilizando internet y las redes sociales como plataformas principales. Sus características más destacadas incluyen:

- Creación de la falsa impresión de que existe un consenso o apoyo público amplio

- Ocultamiento de la verdadera fuente de financiación o intereses detrás de la campaña

- Uso de múltiples cuentas falsas, bots o personas contratadas para simular apoyo genuino

- Manipulación de la percepción pública sobre productos, servicios, políticas o figuras públicas


Técnicas comunes de astroturfing digital

1. Granjas de trolls y bots

Empleo de personas contratadas o programas automatizados para generar comentarios, reseñas y publicaciones masivas que apoyan una determinada posición.

2. Cuentas falsas y sockpuppets

Creación de múltiples identidades falsas que interactúan entre sí para dar la impresión de un debate real o consenso emergente.

3. Reseñas falsas

Publicación de valoraciones fabricadas sobre productos o servicios para mejorar su reputación o deteriorar la de la competencia.

4. Organizaciones fachada

Establecimiento de grupos aparentemente independientes que defienden una causa, pero que en realidad están financiados por entidades con intereses particulares.

5. Manipulación de hashtags y tendencias

Creación artificial de tendencias en redes sociales mediante la actividad coordinada de múltiples cuentas.


Ámbitos de aplicación

El astroturfing digital se utiliza en cantidad de situaciones, como por ejemplo: marketing y relaciones públicas corporativas, campañas políticas y lobby, gestión de crisis y reputación, competencia empresarial desleal, desinformación y propaganda.


Competencia desleal

En el ámbito empresarial, el astroturfing representa una forma de competencia desleal que puede manifestarse de diversas maneras:

Deterioro de la reputación de competidores mediante campañas negativas que simulan ser opiniones espontáneas de consumidores

Creación de falsos movimientos de consumidores que atacan a marcas competidoras

Manipulación artificial de la percepción sobre la calidad o demanda de productos

Influencia indebida en decisiones regulatorias mediante supuestas expresiones de opinión pública


La legalidad del astroturfing varía según las jurisdicciones, variación que seguramente tiene en función de la intensidad reguladora del Derecho del mercado, sea derecho de la competencia o de protección al consumidor, en cada país.

Puede involucrar el análisis y aplicación de Leyes de protección al consumidor, regulaciones de publicidad engañosa, derecho contra la competencia desleal e incluso normas sobre transparencia en comunicaciones comerciales


Desde la perspectiva ética, el astroturfing es cuestionable pues se considera que es capaz de violar principios de honestidad y transparencia, manipular indebidamente la opinión pública, distorsionar procesos democráticos o de mercado, socavar la confianza en las comunicaciones públicas.

Como ejemplos de casos notables de astroturfing digital se incluye:

- Campañas de empresas tecnológicas que han contratado "usuarios" para defender sus productos en foros y redes sociales

- Compañías tabacaleras que han creado organizaciones aparentemente ciudadanas para oponerse a regulaciones restrictivas

- Empresas energéticas financiando grupos que aparentan ser movimientos ambientalistas moderados

- Campañas políticas que utilizan bots para simular apoyo masivo en redes sociales


Como indicadores para identificar Astroturfing se mencionan, entre tantos:

- Lenguaje repetitivo o demasiado similar entre múltiples comentarios o publicaciones

- Actividad inusualmente intensa en períodos cortos de tiempo

- Cuentas con historiales sospechosos (recién creadas, sin información personal verificable)

- Desconexión entre la intensidad de la campaña y su relevancia real

- Falta de transparencia sobre la financiación o afiliaciones


Para contrarrestarlo se plantean mecanismos aplicables en plataformas digitales y con la participación de usuarios, como ser: implementación de algoritmos de detección de bots y actividad coordinada, establecer requisitos de verificación de identidad más estrictos, mejorar políticas de transparencia sobre publicidad y contenido patrocinado, e incluso regulaciones más estrictas sobre transparencia en comunicaciones comerciales.


No sorprende a nadie que el mundo de la economía digital y crecimiento tecnológico constante ofrece técnicas cada vez más sofisticadas para implementar astroturfing... habrá que enfrentarlo también con esta misma tecnología.




LINKS para más información:


https://www.arimetrics.com/glosario-digital/astroturfing


https://theconversation.com/el-astroturfing-o-como-la-industria-de-la-desinformacion-consigue-manipularnos-187945


https://descarregacesped.com.ar/cesped-astroturf/



Imagen tomada de la página de la empresa AstroTurf, con propósito explicativo para la enseñanza.

sábado, 15 de febrero de 2025

Trabajo y plataformas digitales: regulación en Uruguay


Ley 20.396 de 13 de febrero de 2025, sobre regulación del trabajo en las plataformas digitales.

https://medios.presidencia.gub.uy/legal/2025/leyes/02/mtss_513.pdf

Texto de la ley en Parlamento:

https://parlamento.gub.uy/documentosyleyes/documentos/repartido/senadores/49/1077/0/PDF


En el texto legal no hay una definición única de la naturaleza de las relaciones que tienen que ver con trabajo vinculado a los servicios de plataformas digitales.

Podrán ser reguladas por el Derecho del Trabajo o Derecho Laboral sin cumplen con sus características o, en caso contrario, tendrán la regulación contractual correspondiente. Es decir, si se trata de contratos entre empresas que implican la prestación de servicios, se regirán por el que corresponda, nominado o no.

Entiendo que es una posición muy realista.


Por otra parte, destaco el concepto de plataforma digital contenido en el artículo 2 de la ley.


Artículo 2°. (Definición de plataforma digital y empresas titulares de plataformas digitales).- A los efectos de la presente ley, se consideran plataformas digitales los programas y procedimientos informáticos de las empresas que, independientemente del lugar de establecimiento, contactan a clientes con trabajadores, facilitando los servicios de entrega de bienes o transporte urbano y oneroso de pasajeros ejecutados en el territorio nacional y pudiendo participar en la fijación del precio o de los métodos de ejecución del servicio.”


Entrega de bienes y transporte, son las actividades que se encuentran directamente comprendidas en el concepto de plataforma digital, que desde el punto de vista tecnológico es amplio pues se refiere de manera general a “programas y procedimientos informáticos” como medio de instrumentación.


Entiendo que queda fuera todo lo que es la interconexión entre demanda o oferta de servicios y demás actividades que no se encuentran comprendidos en el concepto del artículo 2. Pienso en el caso de servicios turísticos, por ejemplo, que tienen otra normativa en el Derecho Comparado evidentemente.


Cabe destacar que a los efectos de los mínimos tuitivos que impone la ley el concepto de trabajador es amplio, va más allá de la existencia de una tradicional relación individual de Derecho del trabajo, según lo que establece el artículo 3.


Se hace referencia a trabajador dependiente y autónomo, estableciendo un nivel de protección para el trabajador que califica como autónomo también. Seguro dará mucho debate este tipo de conceptos. De todas maneras creo que fue un acierto, un paso adelante la regulación.



LINK para la ficha del ASUNTO en el Parlamento

https://parlamento.gub.uy/documentosyleyes/ficha-asunto/156520


Se puede ver ahí el recorrido parlamentario de la propuesta, hay conexiones a algunos documentos de particular interés.


Es especial al TRÁMITE:

https://parlamento.gub.uy/documentosyleyes/ficha-asunto/156520/tramite


Imagen: “A busy neighbourhood

Albert Robida, Le vingtième siècle: la vie électrique (Paris: La Librairie Illustrée, 1893)

https://publicdomainreview.org/collection/albert-robida-la-vie-electrique/




lunes, 27 de enero de 2025

Panorama: Ley sobre responsabilidad en la IAG de California

El 19 de septiembre de 2024, el gobernador de California, Gavin Newsom, promulgó la Ley de Responsabilidad de la Inteligencia Artificial Generativa de California, que exigirá a los proveedores de sistemas de inteligencia artificial (IA) generativa que:

a pongan a disposición una herramienta de detección de IA;

b ofrezcan a los usuarios de IA la opción de incluir una divulgación manifiesta de que el contenido es generado por IA;

c incluyan una divulgación latente en el contenido generado por IA; y

d celebren un contrato con los licenciatarios que les exija mantener la capacidad del sistema de IA para incluir dicha divulgación latente en el contenido que el sistema crea o modifica.

Entra en vigencia el 1 de enero de 2026.

De manera general se pueden destacar los temas clave que enunciamos a continuación.

1 Transparencia y divulgación:

Requiere que las empresas y desarrolladores de IA generativa informen claramente cuándo un contenido ha sido creado por IA. Esto aplica especialmente en áreas como publicidad, medios de comunicación y servicios al consumidor.

2 Prevención de daños:

Establece medidas para evitar que la IA generativa se utilice para crear contenido fraudulento, engañoso o dañino (como deepfakes, noticias falsas o discursos de odio).

3 Protección de datos y privacidad:

Establece principios para la utilización de los datos para entrenar modelos de IA generativa, asegurando que se respeten los derechos de privacidad de los individuos.



A continuación agregamos el texto en inglés y una traducción al español (sobre base DeepL.com, versión gratuita)


Texto en inglés:


SECTION 1.

 This act shall be known as the Generative Artificial Intelligence Accountability Act.

SEC. 2.

 Chapter 5.9 (commencing with Section 11549.63) is added to Part 1 of Division 3 of Title 2 of the Government Code, to read:

CHAPTER  5.9. Generative Artificial Intelligence Tools

11549.63.

 The Legislature finds and declares all of the following:

(a) The Legislature recognizes the tremendous potential of artificial intelligence (AI) to improve the lives of its citizens and the functioning of government. However, the Legislature also recognizes that the use of AI must be guided by principles of fairness, transparency, privacy, and accountability to ensure that the rights and opportunities of all Californians are protected in the age of artificial intelligence.

(b) The Legislature further recognizes that generative artificial intelligence (GenAI) enables significant, beneficial uses through its unique capabilities, but GenAI raises novel risks compared to conventional AI across critical areas, including democratic and legal processes, biases and equity, public health and safety, and the economy, and requires measures to address insufficiently guarded governmental systems and unintended or emergent harmful effects from this technology. Additionally, because humans have explicit and implicit biases built into our society, GenAI has the capacity to amplify these biases as it learns from input data. Therefore, it is imperative to consider the implications on Californians of, among other categories, different regions, income, races, ethnicities, gender, ages, religions, abilities, and sexual orientation for all GenAI inputs, outputs, and products for both prioritizing implementations that may promote equity and guarding against bias and other negative impacts.

(c) No individual or group should be discriminated against on the basis of race, gender, age, religion, sexual orientation, or any other protected characteristic in the design, development, deployment, or use of AI systems. The unprecedented speed of innovation and deployment of GenAI technologies necessitates proactive guardrails to protect against potential risks or malicious uses, including, but not limited to, bioterrorism, cyberattacks, disinformation, deception, violation of privacy, and discrimination or bias.

(d) The Legislature affirms the importance of transparency in the use of GenAI systems. The public has the right to know when they are interacting with GenAI being used by the state and to have an accessible identification of that interaction.

(e) The Legislature recognizes that the use of GenAI systems must be consistent with the protection of privacy and civil liberties and must be guided by a commitment to equity and social justice. It is the intent of the Legislature in enacting this legislation that all GenAI systems be designed and deployed in a manner that is consistent with state and federal laws and regulations regarding privacy and civil liberties and minimizes bias and promotes equitable outcomes for all Californians.

(f) This act, in addition to the 2022 White House Blueprint for an AI Bill of Rights, executive guidance from the governor, statutory or regulatory requirements, and evolving best practices should guide the decisionmaking of state agencies, departments, and subdivisions in the review, adoption, management, governance, and regulations of automated decisionmaking technologies.

(g) Public-private cross-sectional partnerships should be established to train students to meet the GenAI workforce development needs of the state, including providing instruction on AI and related ethical, privacy, and security considerations while advancing research on best practices. Further, there is the need for the state to recruit, retain, and train GenAI professionals in certain state jobs, and agencies should collaborate to facilitate a pipeline and infrastructure to accomplish that goal.

(h) State agencies, departments, and boards should utilize their authority to protect consumers, patients, passengers, and students from fraud, discrimination, and threats to privacy and to address other risks that may arise from the use of GenAI, including risks to financial stability. State agencies, departments, and boards should consider rulemaking and emphasize or clarify if existing regulations and guidance apply to GenAI or other automated decisionmaking systems.

11549.64.

 As used in this chapter:

(a) “Artificial intelligence” means an engineered or machine-based system that varies in its level of autonomy and that can, for explicit or implicit objectives, infer from the input it receives how to generate outputs that can influence physical or virtual environments.

(b) “Generative artificial intelligence” or “GenAI” means an artificial intelligence system that can generate derived synthetic content, including text, images, video, and audio that emulates the structure and characteristics of the system’s training data.

(c) “Person” means a natural person.

(d) “Report” means the report to the Governor required by Executive Order No. N-12-23.

11549.65.

 (a) The Department of Technology, under the guidance of the Government Operations Agency, the Office of Data and Innovation, and the Department of Human Resources, shall update the report, as needed, to respond to significant developments and shall, as appropriate, consult with academia, industry experts, and organizations that represent state exclusive employee representatives.

(b) (1) The Office of Emergency Services shall, as appropriate, perform a risk analysis of potential threats posed by the use of GenAI to California’s critical infrastructure, including those that could lead to mass casualty events.

(2) The analysis required by paragraph (1) shall be provided to the Governor, and, if appropriate, shall include recommendations reflecting changes to artificial intelligence technology, its applications, and risk management, including further private actions, administrative actions, and collaboration with the Legislature to guard against potential threats and vulnerabilities.

(3) A high-level summary of the analysis required by paragraph (1) shall be submitted annually to the Legislature.

(c) Any state agency or department shall consider procurement and enterprise use opportunities in which GenAI can improve the efficiency, effectiveness, accessibility, and equity of government operations consistent with the Government Operations Agency, the Department of General Services, and the Department of Technology’s policies for public sector GenAI procurement.

(d) Legal counsel for any state agency or department shall consider any potential impact of GenAI on regulatory issues under the respective agency’s or department’s authority and recommend necessary updates, if appropriate, as a result of this evolving technology.

11549.66.

 A state agency or department that utilizes GenAI to directly communicate with a person regarding government services and benefits shall ensure that those communications include both of the following:

(a) A disclaimer that indicates to the person that the communication was generated by GenAI.

(1) For written communications involving physical and digital media, including letters, email, and other occasional messages, the disclaimer shall appear prominently at the start of each communication.

(2) For written communications involving continuous online interactions, including interactions with chatbots, the disclaimer shall be prominently displayed throughout the interaction.

(3) For audio communications, the disclaimer shall be provided verbally at the start and end of the interaction.

(4) For video communications, the disclaimer shall be prominently displayed throughout the interaction.

(b) Information, or a link to an internet website containing information, describing how the person may contact a human employee of the state agency or department.




Texto traducido al español:


SECCIÓN 1.
Esta ley se denominará Ley de Responsabilidad de la Inteligencia Artificial Generativa.
SEC. 2.
Se añade el Capítulo 5.9 (a partir de la Sección 11549.63) a la Parte 1 de la División 3 del Título 2 del Código de Gobierno, con el siguiente texto:
CAPÍTULO 5.9. Herramientas de Inteligencia Artificial Generativa
11549.63.
La Legislatura encuentra y declara todo lo siguiente:
(a) La Legislatura reconoce el tremendo potencial de la inteligencia artificial (IA) para mejorar la vida de sus ciudadanos y el funcionamiento del gobierno. Sin embargo, la Legislatura también reconoce que el uso de la IA debe guiarse por principios de equidad, transparencia, privacidad y responsabilidad para garantizar que los derechos y oportunidades de todos los californianos estén protegidos en la era de la inteligencia artificial.
(b) La Legislatura reconoce además que la inteligencia artificial generativa (GenAI) permite usos significativos y beneficiosos a través de sus capacidades únicas, pero GenAI plantea nuevos riesgos en comparación con la IA convencional en áreas críticas, incluyendo los procesos democráticos y legales, los sesgos y la equidad, la salud pública y la seguridad, y la economía, y requiere medidas para hacer frente a los sistemas gubernamentales insuficientemente protegidos y a los efectos nocivos no intencionados o emergentes de esta tecnología. Además, dado que los humanos tenemos prejuicios explícitos e implícitos incorporados a nuestra sociedad, GenAI tiene la capacidad de amplificar estos prejuicios a medida que aprende de los datos de entrada. Por lo tanto, es imperativo considerar las implicaciones en los californianos de, entre otras categorías, diferentes regiones, ingresos, razas, etnias, género, edades, religiones, habilidades y orientación sexual para todas las entradas, salidas y productos de GenAI, tanto para priorizar las implementaciones que puedan promover la equidad como para protegerse contra los prejuicios y otros impactos negativos.
(c) Ningún individuo o grupo debe ser discriminado por motivos de raza, género, edad, religión, orientación sexual o cualquier otra característica protegida en el diseño, desarrollo, despliegue o uso de sistemas de IA. La velocidad sin precedentes de la innovación y el despliegue de las tecnologías GenAI requiere barandillas proactivas para proteger contra los riesgos potenciales o usos maliciosos, incluyendo, pero no limitado a, el bioterrorismo, los ciberataques, la desinformación, el engaño, la violación de la privacidad, y la discriminación o el sesgo.
(d) El Poder Legislativo afirma la importancia de la transparencia en el uso de los sistemas GenAI. El público tiene derecho a saber cuándo está interactuando con GenAI utilizada por el Estado y a disponer de una identificación accesible de dicha interacción.
(e) El legislador reconoce que el uso de los sistemas GenAI debe ser coherente con la protección de la privacidad y las libertades civiles y debe guiarse por un compromiso con la equidad y la justicia social. Es la intención de la Legislatura al promulgar esta legislación que todos los sistemas GenAI sean diseñados y desplegados de una manera que sea coherente con las leyes y reglamentos estatales y federales relativos a la privacidad y las libertades civiles y minimice los prejuicios y promueva resultados equitativos para todos los californianos.
(f) Esta ley, se agrega al Plan de la Casa Blanca de 2022 para una Declaración de Derechos de la IA, la orientación ejecutiva del gobernador, los requisitos legales o reglamentarios y las mejores prácticas en evolución deben guiar la toma de decisiones de las agencias, departamentos y subdivisiones estatales en la revisión, adopción, gestión, gobernanza y reglamentación de las tecnologías automatizadas de toma de decisiones.
(g) Deben establecerse asociaciones transversales público-privadas para formar a los estudiantes con el fin de satisfacer las necesidades de desarrollo de la mano de obra GenAI del Estado, incluyendo la provisión de instrucción sobre la IA y las consideraciones éticas, de privacidad y de seguridad relacionadas, al tiempo que se avanza en la investigación sobre las mejores prácticas. Además, existe la necesidad de que el Estado reclute, retenga y forme a profesionales GenAI en ciertos trabajos estatales, y las agencias deberían colaborar para facilitar una canalización e infraestructura para lograr ese objetivo.
(h) Las agencias estatales, departamentos y juntas deben utilizar su autoridad para proteger a los consumidores, pacientes, pasajeros y estudiantes contra el fraude, la discriminación y las amenazas a la privacidad y para hacer frente a otros riesgos que puedan derivarse de la utilización de GenAI, incluidos los riesgos para la estabilidad financiera. Las agencias estatales, departamentos y juntas deben considerar la elaboración de normas y enfatizar o aclarar si las regulaciones y directrices existentes se aplican a GenAI u otros sistemas automatizados de toma de decisiones.
11549.64.

Tal como se utiliza en este capítulo:
(a) «Inteligencia artificial» significa un sistema de ingeniería o basado en máquinas que varía en su nivel de autonomía y que puede, para objetivos explícitos o implícitos, inferir de la entrada que recibe cómo generar salidas que pueden influir en entornos físicos o virtuales.
(b) «Inteligencia artificial generativa» o «GenAI»: un sistema de inteligencia artificial que puede generar contenidos sintéticos derivados, incluidos texto, imágenes, vídeo y audio que emulan la estructura y las características de los datos de entrenamiento del sistema.
(c) «Persona» significa una persona física.
(d) «Informe» significa el informe al Gobernador requerido por la Orden Ejecutiva nº N-12-23.
11549.65.
(a) El Departamento de Tecnología, bajo la dirección de la Agencia de Operaciones Gubernamentales, la Oficina de Datos e Innovación y el Departamento de Recursos Humanos, actualizará el informe, según sea necesario, para responder a desarrollos significativos y, según corresponda, consultará con el mundo académico, expertos de la industria y organizaciones que representen a los representantes exclusivos de los empleados estatales.
(b) (1) La Oficina de Servicios de Emergencia deberá, según proceda, realizar un análisis de riesgos de las amenazas potenciales planteadas por el uso de GenAI a la infraestructura crítica de California, incluidas las que podrían dar lugar a eventos con víctimas masivas.
(2) El análisis requerido por el párrafo (1) se proporcionará al Gobernador y, en su caso, incluirá recomendaciones que reflejen los cambios en la tecnología de inteligencia artificial, sus aplicaciones y la gestión de riesgos, incluyendo nuevas acciones privadas, acciones administrativas y la colaboración con la Legislatura para protegerse contra las amenazas y vulnerabilidades potenciales.
(3) Se presentará anualmente a la Legislatura un resumen de alto nivel del análisis requerido por el apartado (1).
(c) Cualquier agencia o departamento estatal deberá considerar las oportunidades de adquisición y uso empresarial en las que GenAI puede mejorar la eficiencia, eficacia, accesibilidad y equidad de las operaciones gubernamentales en consonancia con la Agencia de Operaciones Gubernamentales, el Departamento de Servicios Generales y las políticas del Departamento de Tecnología para la adquisición GenAI del sector público.
(d) El asesor legal de cualquier agencia o departamento estatal considerará cualquier impacto potencial de GenAI en cuestiones regulatorias bajo la autoridad de la agencia o departamento respectivo y recomendará las actualizaciones necesarias, si procede, como resultado de esta tecnología en evolución.
11549.66.
Una agencia o departamento estatal que utilice GenAI para comunicarse directamente con una persona en relación con servicios y beneficios gubernamentales deberá asegurarse de que esas comunicaciones incluyan lo siguiente
(a) Un descargo de responsabilidad que indique a la persona que la comunicación fue generada por GenAI.
(1) En las comunicaciones escritas en soporte físico y digital, incluyendo cartas, correos electrónicos y otros mensajes ocasionales, la cláusula de exención de responsabilidad deberá aparecer de forma destacada al inicio de cada comunicación.
(2) En las comunicaciones escritas que impliquen interacciones continuas en línea, incluidas las interacciones con chatbots, la cláusula de exención de responsabilidad deberá aparecer de forma destacada durante toda la interacción.
(3) En las comunicaciones de audio, la cláusula de exención de responsabilidad se facilitará verbalmente al principio y al final de la interacción.
(4) En el caso de las comunicaciones de vídeo, la cláusula de exención de responsabilidad figurará en un lugar destacado durante toda la interacción.
(b) Información, o un enlace a un sitio web que contenga información, que describa cómo puede ponerse en contacto la persona con un empleado humano de la agencia o departamento estatal.



Texto legal:

Generative Artificial Intelligence Accountability Act.

Ley de California sobre Responsabilidad por IAG

https://leginfo.legislature.ca.gov/faces/billCompareClient.xhtml?bill_id=202320240SB896&showamends=false


https://www.govops.ca.gov/generative-ai-genai-executive-order/



LINKs para profundizar sobre la norma que comentamos y algunas otras sobre IA aprobados en el Estado de California.


https://www.genai.ca.gov/


https://www.bakerdonelson.com/californias-new-generative-ai-law-what-your-organization-needs-to-know


https://perkinscoie.com/insights/update/ab-2013-new-california-ai-law-mandates-disclosure-genai-training-data


https://www.cooley.com/news/insight/2024/2024-10-16-californias-new-ai-laws-focus-on-training-data-content-transparency


https://www.jdsupra.com/legalnews/california-legislature-passes-1908394/



viernes, 24 de enero de 2025

Greenwashing: parecerlo sin serlo.


Ecoimpostura, ecopostureo y similares también le dicen en español.

La conciencia asumida en los últimos tiempos sobre la necesidad de cuidar el ambiente, la sostenibilidad ambiental, ligada en otros aspectos de circularidad de la Economía y demás, han hecho que clientes, consumidores y usuarios de todo tipo de servicios y productos aprendan a fijarse en ese tema. Es decir: cuando van a contratar o consumir servicios o productos se fijan en qué tan cumplidores de los parámetros de respeto a la sostenibilidad son las empresas cuya oferta reciben en el mercado.

Reacción de las empresas de la oferta: serlo y si no puedo, parecerlo. Si no puedo serlo (por que no puedo pagarlo, porque no me resulta rentable, porque no sé hacerlo...), tendré que parecerlo. Entonces vemos que el discurso de competencia pasa a destacar atributos que se vinculan a la sostenibilidad, especialmente ambiental.

El greenwashing es una práctica engañosa utilizada por algunas empresas para dar la impresión de que son más responsables con el medio ambiente de lo que realmente son. Este término se refiere a las estrategias de marketing que crean una imagen ilusoria de sostenibilidad, mientras que las acciones de la empresa pueden ser perjudiciales para el medio ambiente. Pretenden que una empresa parezca más respetuosa con el medio ambiente de lo que realmente es.

El greenwashing implica la utilización de términos y símbolos que sugieren un compromiso ambiental, como "eco", "sostenible" o "natural", sin que estas afirmaciones estén respaldadas por acciones concretas. Las empresas pueden emplear diversas tácticas, como:

Información falsa: Afirmaciones engañosas sobre certificaciones ambientales.

Falta de pruebas: Declaraciones sobre sostenibilidad sin evidencia verificable

Irrelevancia: Destacar aspectos ecológicos triviales que no impactan significativamente en el medio ambiente.

Este fenómeno no solo confunde a los consumidores, sino que también distorsiona la competencia en el mercado, favoreciendo a aquellas empresas que engañan al público a expensas de las que realmente implementan prácticas sostenibles.

El greenwashing tiene implicaciones significativas en el contexto de la competencia desleal. Al promocionar productos o servicios como sostenibles sin un respaldo real, las empresas pueden obtener una ventaja competitiva injusta sobre sus competidores que sí cumplen con estándares ambientales. Esto se considera un acto desleal porque induce a error a los consumidores y afecta su capacidad para tomar decisiones informadas

No confundamos el greenwashing con el discurso de autoelogio o agrandamiento de virtudes tolerable en el discurso publicitario. No se trata de una mera “mentira publicitaria”. Cuando las prácticas de greenwashing son comprobadas, presentan engaño y distorsión, afectan directamente el Derecho de la Competencia, constituyendo prácticas de Competencia Desleal y, desde el punto de vista del consumidor/usuario constituyen también actos que vulneran la tutela de los Derechos del Consumidor.

Hay casos mas o menos conocidos en el mundo, sancionados en su momento, como por ejemplo las situaciones de Apple, Nike, Lufthansa, entre otros tantos.

https://ipmark.com/apple-nike-lufthansa-entre-marcas-acusadas-de-greenwashing-2023/

https://ambienta.uy/greenwashing-2023/

En muchos países, el greenwashing puede ser objeto de sanciones bajo leyes de competencia desleal.

En la Unión Europea (UE), el greenwashing está comenzando a ser objeto de regulación formal. En 2020, el Parlamento Europeo aprobó la creación de criterios para combatir el blanqueo ecológico, como parte de la Nueva Agenda del Consumidor. Esta iniciativa tiene como objetivo proteger los derechos de los consumidores y combatir prácticas desleales. Se han propuesta una Directiva para perseguir las alegaciones ecológicas falsas en especial, así como otra Directiva que refuerza el poder de los consumidores en la persecución de tales actos.

En España, la Ley de Competencia Desleal prohíbe actos de engaño y omisiones engañosas que puedan alterar el comportamiento económico del consumidor. Las empresas denunciadas por greenwashing pueden enfrentar multas, indemnizaciones y daños a su reputación.

En Uruguay, como en otros países de América Latina, sin perjuicio de que se avance en declaraciones al respecto, hay dos ámbitos de accionamiento básicos:

I el derecho contra la Competencia Desleal, que en general surge de la legislación interna específica o – en caso que no la haya – del principio del artículo 10bis del Convenio de París de 1883, para la protección de la propiedad industrial y contra los actos de competencia desleal;

II la normativa tutelar del Consumidor, con la legislación interna correspondiente.

Sea a nivel judicial, como a nivel administrativo – para el caso de la Protección del Consumidor – las actuaciones engañosas o distorsivas de los actos de competencia que se puedan calificar como greenwashing tienen tales ámbitos de discusión.

El greenwashing representa un desafío tanto para los consumidores como para las empresas éticas. Al engañar al público sobre su impacto ambiental real, las empresas no solo perjudican a sus competidores justos, sino que también socavan la confianza del consumidor en las iniciativas sostenibles. Para combatir esta práctica, es fundamental promover una mayor transparencia y exigir estándares más altos en la publicidad y marketing relacionados con el medio ambiente.


Algunos LINKs para aprender más:

https://www.iberdrola.com/sostenibilidad/greenwashing

https://www.nationalgeographic.com.es/medio-ambiente/greenwashing-que-es-como-se-esta-combatiendo-otras-claves-esta-practica_22526

https://egade.tec.mx/es/egade-ideas/opinion/que-es-el-greenwashing-y-por-que-hay-que-evitarlo

https://es.wikipedia.org/wiki/Ecoimpostura

https://actualicese.com/el-greenwashing-como-competencia-desleal/


Imagen: Ernst Haeckel (1834-1919)

Chromolithograph by W. Koehler, after Ernst Haeckel’s "Nillu bushes and hanging bamboo in the highlands of Sri Lanka" Arbustos de nillu y bambúes colgantes en las tierras altas de Sri Lanka (1882), printed in Haeckel’s Wanderbilder (1905).

https://publicdomainreview.org/essay/human-forms-in-nature-ernst-haeckel-s-trip-to-south-asia-and-its-aftermath/

https://commons.wikimedia.org/wiki/File:Haeckel_07.jpg




jueves, 23 de enero de 2025

2025 La Propiedad Intelectual en el Uruguay y Marco Normativo

 Queda a disposición la actualización de la publicación free on line:

La Propiedad Intelectual en el Uruguay.

https://drive.google.com/file/d/1_Cu104CyUfvS72IyS5rCdtsG55fkgJxf/view?usp=sharing

He revisado la jurisprudencia uruguaya 2024, en la Base del Poder Judicial, agregué referencias a las sentencias que me parecieron más sustantivas.

También agregué referencias a las novedades normativas en la materia. No fueron tantas.







Queda también la actualización free on line de:

Propiedad Intelectual Marco normativo vigente en el Uruguay

https://drive.google.com/file/d/1ASTZR5968N5SIfc8ZDtdkeuh_U-cAw5-/view?usp=sharing




Este material está pensado y destinado para mis estudiantes de la Facultad de Derecho, facilito el acceso online por si puede ser de interés para otras personas.

Como siempre solamente autorizo el acceso o reproducción personal, con finalidad de análisis, estudio o académico. No autorizo ningún tipo de reproducción o uso comercial. 


Cargué también en MediaFire: 

Libro

La PI en Uruguay

https://www.mediafire.com/file/5muayvmvp9oha4s/Libro+PI+2025+TOTAL+def.pdf/file

PI Marco Normativo

https://www.mediafire.com/file/p331240ylc55vo6/MN+Propiedad+Intelectual+enero+2025+SÍNTESIS.pdf/file


Hasta el 30 de enero de 2025 se puede bajar también desde acá:

Libro

La PI en Uruguay

https://spaces.hightail.com/receive/9Z99OGXMhQ

PI Marco Normativo

https://spaces.hightail.com/receive/aeIfzco04M


martes, 21 de enero de 2025

martes, 17 de diciembre de 2024

UK: consulta abierta sobre IA y DA

En el Reino Unido hacen las cosas muy bien. Al menos en todo lo que sigo de Derecho Comercial, Derecho del Mercado, Propiedad Intelectual, temas de organización... soy admiradora de su organización.

Este es un claro ejemplo.

Abrieron consulta sobre la mejor regulación respecto de Inteligencia Artificial y Derecho de Autor.

Eso lo han hecho muchos.

Pero desde el propio planteo se nota cabeza bien puesta.


LINK:


https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence/copyright-and-artificial-intelligence


A continuación traduje parte de su introducción, numerales 5 a 8.


5 El rápido ritmo de desarrollo de la tecnología de IA en los últimos años ha dado lugar a un debate en el Reino Unido y en todo el mundo sobre cómo se debe aplicar el marco de derechos de autor existente a las actividades que sustentan el entrenamiento de grandes modelos de IA. El marco de derechos de autor proporciona a los titulares de derechos derechos económicos y morales que significan que pueden controlar cómo se utilizan sus obras. Esto significa que copiar obras para entrenar modelos de IA requiere una licencia de los titulares de derechos pertinentes, a menos que se aplique una excepción.

6 Tal como están las cosas, este marco no satisface las necesidades de las industrias creativas del Reino Unido ni de los sectores de IA. Las organizaciones creativas y de medios de comunicación están preocupadas por el hecho de que sus obras se utilicen para entrenar a la IA sin su permiso y no pueden obtener una remuneración mediante acuerdos de licencia. También han destacado la falta de transparencia de los desarrolladores de IA sobre qué contenido se utiliza o se ha utilizado y cómo se adquiere, lo que puede dificultar la aplicación de sus derechos de autor. Asimismo, las empresas de IA han expresado su preocupación por el hecho de que la falta de claridad sobre cómo pueden acceder legalmente a los datos de entrenamiento crea riesgos legales, frena la innovación en IA en el Reino Unido y frena la adopción de la IA.

7 La falta de claridad sobre el régimen actual significa que los principales desarrolladores de IA no entrenan a sus modelos en el Reino Unido, sino que lo hacen en jurisdicciones con reglas más claras o más permisivas. Dado que la ley de derechos de autor se aplica en la jurisdicción donde se realiza la copia, esto significa que los desarrolladores de IA no están obligados a respetar los derechos bajo la ley del Reino Unido. Esto también perjudica a nuestro sector de IA en el Reino Unido, ya que la inversión de los principales desarrolladores de IA es limitada y las pymes con sede en el Reino Unido que no pueden capacitarse en el extranjero se ven perjudicadas.

8 No podemos permitir que esto continúe. Necesitamos actuar ahora para ayudar a acelerar el crecimiento en nuestras industrias creativas y en nuestros sectores de IA, que son partes esenciales de la Estrategia Industrial del gobierno. Esta consulta busca opiniones sobre cómo podemos lograr esto trabajando en asociación con ambos sectores, y propone un enfoque que apunta a:
* mejorar el control de los titulares de derechos sobre su material y su capacidad de ser remunerados por su uso
* apoyar un amplio acceso a material de alta calidad para impulsar el desarrollo de modelos líderes de IA en el Reino Unido
* garantizar una mayor transparencia de los desarrolladores de IA para generar confianza con los creadores, las industrias creativas y los consumidores.”


Seguro será un texto muy relevante, como para seguir ejemplo.

Hay que seguir el desarrollo.


Esta es la presentación resumen:

https://www.gov.uk/government/consultations/copyright-and-artificial-intelligence


Comentarios sobre la iniciativa:

https://observatorioblockchain.com/ia/reino-unido-legislara-que-la-ia-pague-los-derechos-de-autor/