Виконавчий директор компанії Meta Нік Клегг вважає, що ризики поточних моделей ШІ перебільшені.
Про це він сказав в інтерв’ю BBC.
За словами директора Facebook, ажіотажу навколо моделей штучного інтелекту більше, ніж вони того заслуговують.
Він сказав про це після того, як Meta заявила, що її велика мовна модель Llama 2, буде безкоштовною для всіх та матиме відкритий код.
Це рішення Meta зробити Llama 2 широкодоступним для комерційних компаній і дослідників розділило технічну спільноту через загрозу безпеці. Адже раніше перша версія Llama просочилася в Інтернет протягом тижня після її запуску.
Відомо, що Meta вирішила співпрацювати з Microsoft у цьому проєкті – Llama 2 буде доступна та використовуватиметься на платформах Microsoft, таких як Azure.
Microsoft у свій час також інвестувала мільярди доларів у творця ChatGPT OpenAI.
Дам Венді Холл, професор комп’ютерних наук Університету Саутгемптона, розповіла BBC, що дозвіл ШІ бути відкритим кодом викликає занепокоєння.
«Мене хвилює питання відкритого вихідного коду в тому, як ми їх регулюємо. Це схоже на те, що дати людям шаблон для створення ядерної бомби», – сказала вона.
Тимчасом Клегг назвав її коментарі «гіперболою», і уточнив, що система Meta з відкритим кодом не може генерувати зображення, не кажучи вже про «створення біологічної зброї».
Але він «повністю погоджується», що ШІ потрібно регулювати.
«Моделі вже весь час перебувають у відкритому доступі, — сказав він. – Тож справа не в тому, чи буде відкритий вихідний код цих великих мовних моделей, питання полягає в тому, як зробити це максимально відповідально та безпечно».
Виконавчий директор Meta запевнив, що його програми LLM з відкритим кодом безпечніші за будь-які інші програми LLM зі штучним інтелектом, які мають відкритий код.