KI-Chatbots können Standardunterhaltungen schon gut nachbilden - allerdings nur schriftlich. Nun hat ein Entwickler aus Llama einen Voicechat gemacht. Mit Transkriptionstool und Apple-Prozessor Der Llama-Voicechat des bulgarischen Entwicklers Georgi Gerganov kann mithilfe eines M1-Pro-Chips von Apple lokal laufen. Um das Machine-Learning-Modell ausführen zu können, nutzt er Apples Core-ML-Framework. Die Speech-to-Text-Komponente, also die Transkription der gesprochenen Sprache in eine Texteingabe, läuft über Whisper von OpenAI. Um Whisper effizienter auf der CPU auszuführen, nutzt Gerganov die Tensorbibliothek Den vollständigen Artikel lesen ...
© 2023 t3n