Como pai de uma criança mais nova, posso dizer que fazer uma criança responder da maneira que você quer pode exigir uma definição cuidadosa de expectativas. Especialmente quando estamos tentando algo novo pela primeira vez, acho que quanto mais detalhes eu puder fornecer, melhor ele será capaz de antecipar eventos e lidar com os socos.
Trago isso à tona porque os testadores dos novos recursos de inteligência artificial da Apple no beta do macOS Sequoia lançado recentemente descobriram arquivos JSON de texto simples que listam um monte de condições destinadas a evitar que a tecnologia de IA generativa seja inútil ou imprecisa. Não quero humanizar algoritmos de IA generativa, porque eles não merecem ser, mas as listas de instruções cuidadosamente formuladas me lembram de como é tentar dar instruções básicas para (ou explicar moralidade para) uma entidade que não está preparada para entendê-las.
Os arquivos em questão são armazenados no /System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels/purpose_auto
pasta em Macs executando o macOS Sequoia 15.1 beta que também optaram pelo Apple Intelligence beta. Essa pasta contém 29 metadata.json
arquivos, vários dos quais incluem algumas frases do que parecem ser prompts de sistema em inglês simples para definir o comportamento de um chatbot de IA alimentado por um modelo de linguagem ampla (LLM).