Las crecientes preocupaciones sobre el potencial de filtración de datos confidenciales han llevado a Apple a limitar el uso de ChatGPT, una plataforma de inteligencia artificial desarrollada por OpenAI, por parte de algunos empleados, según The Wall Street Journal. Esta medida coloca a Apple en línea con su competidor Samsung, que también ha impuesto restricciones similares en respuesta a temores de seguridad en torno a la plataforma de IA.
Apple, un jugador veterano en el ámbito de la inteligencia artificial desde el lanzamiento de su asistente virtual Siri en 2011, ha expresado preocupaciones que no se limitan sólo a ChatGPT. También se menciona el asistente de programación de software de Microsoft, Github Copilot, como motivo de preocupación. En medio de estos desafíos, Apple continúa invirtiendo en la inteligencia artificial, como lo demuestra su reciente adquisición de WaveOne, una empresa de IA especializada en la compresión de video.
El CEO de Apple, Tim Cook, enfatizó la necesidad de precaución en el manejo de la IA durante una llamada de ganancias reciente. Su énfasis en ser «deliberado y reflexivo» destaca la delicada naturaleza del equilibrio entre la adopción de la tecnología de IA y la salvaguarda de la información confidencial.
Samsung, por su parte, ya ha advertido a sus empleados sobre el riesgo de filtración de información a través de plataformas de IA como ChatGPT. La empresa señala que los datos enviados a estas plataformas se almacenan en servidores externos y podrían ser difíciles de eliminar, presentando un riesgo para la seguridad de los datos.
Con Apple y Samsung uniéndose a empresas como JPMorgan Chase, Verizon, Northrop Grumman y Amazon en la restricción o prohibición del uso de ChatGPT, se pone de manifiesto el creciente temor en torno a la seguridad de los datos en las plataformas de IA. Sin embargo, OpenAI ha respondido con actualizaciones para ChatGPT que ofrecen un mejor control de la privacidad, un paso que puede ayudar a aliviar algunas de estas preocupaciones en el futuro.





