Om du bor i USA eller Storbritannien kan du börja chatta med Claude från Anthropics webbplats.
Claude, AI-chattboten som Anthropic marknadsför som lättare att prata med, är äntligen tillgänglig för fler människor att prova. Företaget har meddelat att alla i USA och Storbritannien kan testa den nya versionen av sin konversationsbot, Claude 2, från sin webbplats.
Den offentliga tillgängligheten gör det möjligt för Claude att ansluta sig till ChatGPT, Bing och Bard, som alla är tillgängliga för användare i många länder. Det betyder att vi alla har ytterligare en AI-chattbot att leka med, men Anthropic säger att man ska ”tänka på Claude som en vänlig, entusiastisk kollega eller personlig assistent som kan instrueras på naturligt språk för att hjälpa dig med många uppgifter.”
Claude, som Anthropic också beskriver som ”hjälpsam, harmlös och ärlig”, kan göra saker som att skapa sammanfattningar, skriva kod, översätta text och mycket mer. Även om detta kan låta mycket som Googles Bard eller Microsofts Bing-chattbot, säger Anthropic att den är byggd annorlunda än dessa robotar. Den har en mer konversationell ton än sina motsvarigheter – och påstås till och med ha ett sinne för humor. (Jag måste testa det själv.) Den styrs också av en uppsättning principer, kallad en ”konstitution”, som den använder för att revidera sina svar själv istället för att förlita sig på mänskliga moderatorer.
Det Google-stödda Anthropic lanserade Claude i mars, men chattboten var endast tillgänglig för företag på begäran eller som en app i Slack. Med Claude 2 bygger Anthropic vidare på chatbotens befintliga kapacitet med ett antal förbättringar. Förutom förmågan att skapa längre svar är Claude 2 också något mer skicklig inom matematik, kodning och resonemang jämfört med den tidigare Claude-modellen.
Som ett exempel säger Anthropic att Claude 2 fick 76,5 procent på flervalsdelen av advokatexamen, medan den äldre Claude 1.3 fick 73 procent. Claude 2 är också två gånger bättre på att ”ge harmlösa svar”, enligt Anthropic. Det innebär att det borde vara mindre sannolikt att den spottar ut skadligt innehåll när du interagerar med den jämfört med den tidigare modellen, även om Anthropic inte utesluter möjligheten till jailbreaking.
Till skillnad från Bard och Bing är Claude 2 dock fortfarande inte ansluten till internet och är tränad på data fram till december 2022. Även om det innebär att den inte kan ge aktuell information om aktuella händelser (den vet inte ens vad Threads är!), är dess dataset fortfarande nyare än det som gratisversionen av ChatGPT använder. (ChatGPT:s kunskap tar slut efter 2021.) Sandy Banerjee, en representant för Anthropic, säger till Ny Teknik att du fortfarande kan mata Claude med en nyligen publicerad webbplats eller webbsida, och den bör kunna svara på frågor om den.
Dessutom utvidgade Anthropic nyligen Claudes kontextfönster till cirka 75 000 ord. Det innebär att du kan ladda upp dussintals sidor till bot, eller till och med en hel roman, för bot att analysera. Så om du behöver en snabb sammanfattning av en komplicerad och mycket lång forskningsrapport är Claude din bot. Andra modeller har mycket mindre begränsningar, där ChatGPT har en maxgräns på cirka 3 000 ord. Nu när Anthropic är tillgänglig för allmänheten ser jag fram emot att prova detta och se om ett längre kontextfönster är tillräckligt för att få denna ”ofarliga” bot att gå överstyr, som vi såg med Bing.