Se connecter

Smartphones & tablettes

iPhone / iPod / iPad / Watch

Sujet : [Apple Intelligence] Les MACBOOK M1 devraient gérer sans problème selon vous ?
1
Robin_Sparkles1
Niveau 44
25 septembre 2024 à 14:23:40

Si bien sûr ça arrive en France :hap: (selon numérama qui a demandé à Bruxelles apparement aucun problème normalement si ce n’ai quelques features)

Les M1 ont 16 cœur dédiés neural engine .
(Les iPhone 16 et pro respectivement 5 et 6)

En ce qui concerne la ram là je pense que tous les mac avec 8go vont peut être ramer un peu meme avec mémoire unifier sauf si Apple optimise bien ça.

Si ça se confirme les M1 auront une belle longévité par rapport aux nouvelles features.

07h31
Niveau 35
25 septembre 2024 à 18:41:54

aucune idée, j'ai même l'impression qu'on parle jamais de l'ia sur mac

Robin_Sparkles1
Niveau 44
26 septembre 2024 à 01:11:03

Le 25 septembre 2024 à 18:41:54 :
aucune idée, j'ai même l'impression qu'on parle jamais de l'ia sur mac

Pourtant ils sont consu pour l’ia.
J’imagine même pas le gain de temps avec Apple intelligence dessus ! Apple va prendre le lead pour l’intégration de l’ia fonctionnel pour les utilisateurs sur les device. C’est là où ils sont bon et la concurrence va copier

CaptainTruth
Niveau 22
27 septembre 2024 à 12:50:00

Le 26 septembre 2024 à 01:11:03 :

Le 25 septembre 2024 à 18:41:54 :
aucune idée, j'ai même l'impression qu'on parle jamais de l'ia sur mac

Pourtant ils sont consu pour l’ia.
J’imagine même pas le gain de temps avec Apple intelligence dessus ! Apple va prendre le lead pour l’intégration de l’ia fonctionnel pour les utilisateurs sur les device. C’est là où ils sont bon et la concurrence va copier

El famoso mac M1 "cousu pour l'IA" alors que c'est un SoC vieux de 4 ans tourné vers l'efficience et pas du tout sur l'IA. :rire:
Apple a au moins 2 ans de retard sur OpenAI et a été forcé de faire un gros cheque pour pouvoir intégrer ChatGPT dans Apple Intelligence. Apple fait tout pour rentrer au capital d'OpenAI et débauche activement des gens de chez eux et Nvidia.
Donc non c'est pas vraiment les leaders. C'est des suiveurs car ils n'ont pas le choix pour rester crédible.

Ils vont rattraper leur retard grace au fric quasi infini à disposition. Mais les vrais stars de l'IA c'est OpenAI et dans une moindre mesure Nvidia qui permet de train tous les modèles avec un hardware d'exception (design du GPU pour train les derniers modèles d'IA, énorme puissance GPU et surtout énorme VRAM).

Je pense que tu parles d'un sujet que tu comprends pas vraiment. La puissance d'Apple Intelligence meme sur un 16 pro est ridicule par rapport aux leaders, si tu as besoin d'un gros taf d'IA le calcul sera déporté de ton mac/iphone vers une partie private cloud computing (chatGPT par exemple). C'est mieux que rien mais ils partent de loin en l'état.

Pseudo supprimé
Niveau 5
28 septembre 2024 à 06:45:04

Le 27 septembre 2024 à 12:50:00 :

Le 26 septembre 2024 à 01:11:03 :

Le 25 septembre 2024 à 18:41:54 :
aucune idée, j'ai même l'impression qu'on parle jamais de l'ia sur mac

Pourtant ils sont consu pour l’ia.
J’imagine même pas le gain de temps avec Apple intelligence dessus ! Apple va prendre le lead pour l’intégration de l’ia fonctionnel pour les utilisateurs sur les device. C’est là où ils sont bon et la concurrence va copier

El famoso mac M1 "cousu pour l'IA" alors que c'est un SoC vieux de 4 ans tourné vers l'efficience et pas du tout sur l'IA. :rire:
Apple a au moins 2 ans de retard sur OpenAI et a été forcé de faire un gros cheque pour pouvoir intégrer ChatGPT dans Apple Intelligence. Apple fait tout pour rentrer au capital d'OpenAI et débauche activement des gens de chez eux et Nvidia.
Donc non c'est pas vraiment les leaders. C'est des suiveurs car ils n'ont pas le choix pour rester crédible.

Ils vont rattraper leur retard grace au fric quasi infini à disposition. Mais les vrais stars de l'IA c'est OpenAI et dans une moindre mesure Nvidia qui permet de train tous les modèles avec un hardware d'exception (design du GPU pour train les derniers modèles d'IA, énorme puissance GPU et surtout énorme VRAM).

Je pense que tu parles d'un sujet que tu comprends pas vraiment. La puissance d'Apple Intelligence meme sur un 16 pro est ridicule par rapport aux leaders, si tu as besoin d'un gros taf d'IA le calcul sera déporté de ton mac/iphone vers une partie private cloud computing (chatGPT par exemple). C'est mieux que rien mais ils partent de loin en l'état.

Je crois que c’est toi qui ne comprend pas, on attend moins d’Apple qu’ils créent la machinerie en coulisse qui fait fonctionner l’IA que de les voir intégrer l’IA efficacement dans leurs produits pour démocratiser un usage quotidien et grand public, en vendant correctement des fonctionnalités qui peuvent déjà exister par ailleurs. Faire leur boulot en fait … avoir l’IA qui travail en local, rassurer l’utilisateur sur la sécurité de ses données, ça fait parti de ce travail.

Parce que pour l’instant, la « révolution IA » c’est un bel exercice technique, beaucoup de promesses, beaucoup de bruits, beaucoup de gadgets, quelques usages ponctuelles ou très particuliers, mais pas grand chose de plus pour l’instant surtout pour le grand public.

Alors est ce que Apple arrivera à faire quelque chose de propre et intéressant ? Pas sûr. Est ce que ça sera un gros gap dans les usages, un changement de paradigme ? J’en doute fort.
Est ce que la « révolution IA » ne sera qu’une multitude d’améliorations de quality of Life finalement assez discrète qui deviendront bientôt indispensable pour tous, si bien intégré, comme si ça avait toujours été là ? …. Je penche plutôt pour ce scénario.

Il paraît qu’une fonctionnalité qui a énormément parlé au grand public c’est la possibilité de créer ses emoji … peut être que la révolution IA ressemble à ça …

BornSmart1992
Niveau 13
04 octobre 2024 à 11:06:21

avoir l’IA qui travail en local, rassurer l’utilisateur sur la sécurité de ses données, ça fait parti de ce travail.

En pratique c'est impossible pendant au moins 5 ans (10 ?) sans un relais dans le cloud. Captain a raison tu parles d'un sujet dont tu ne comprends pas les fondations et donc de facto les prérequis techniques.
Pour avoir une IA aux standards actuels (chat GPT 4o) il faut environ un modèle à 1000 milliards de paramètres. A titre de comparaison un modèle pas si vieux de juste 1 an comme GPT 3.5 c'était 175 milliards ça te donne l'idée de la dynamique). Et le prochain standard c'est probablement GPT o1 encore plus puissant qui est en phase de fine-tuning.

Pour te donner une idée pour faire tourner un modèle tout petit avec pas 175 millliards et encore moins 1000 milliards mais de 7 milliards de paramètres seulement en local avec une bonne optimisation (Mixtral 7B de Mistral AI par exemple) il faut pour que cela tourne bien sans latence sur un pc portable, il faut :
- Un GPU Nvidia RTX, idéalement 4090/4080/3080Ti et ça passe convenablement avec 4060/4070/3080/3070
- 32 Go de RAM système minimum pour offloader la charge sur la VRAM des GPUs (tu vas utiliser 100% de la VRAM de ces GPU comprises entre 8 et 16 Go suivant les modèles) et utiliser aussi de la RAM système.
- Un CPU puissant (Intel 12-13-14th gen series HX ou Intel Ultra 9 185H ou autres équivalent chez Intel / AMD)

Bref je vais pas aller dans le détails mais ces configurations sont à des années lumières de qu'une puce sur smartphone peut faire en terme de puissance et c'est normal car tous ces composants réunis sont plus chers qu'un iPhone et consomme beaucoup de trop de W pour un smartphone (il serait trop chaud et la batterie lapidée).
Et on parle d'un modèle à 7 milliards donc avec moins d'intelligence, plus d'erreurs, moins de pertinence et de mémoire et on parle pas d'une LLM à ~1000 milliards comme GPT 4o...

Ce qu'il va se passer c'est qu'Apple va faire une baby LLM custom probablement achetée très chère auprès d'OpenAI en marque blanche dans iOS pour des taches simples et surtout spécialement entrainées pour ce qui est de plus probable en terme de requêtes sur un téléphone (un vrai Siri 2.0 en gros). Si tu veux un truc pertinent pour des demandes complexes ou assez spécifiques tout sera envoyé dans le cloud tu auras rien en local. Et tu peux privatiser la partie LLM dans cloud à la Apple rien de compliqué, il faut juste que la boite qui fasse la LLM trouve un accord avec Apple.

La réalité que les vraies LLMs seront toujours déportée dans le cloud car ça demande un hardware d'élite et en constante amélioration pour rester compétitif. Apple utilise l'AI comme un prétexte pour faire une pression sur les puces pour inciter les gens à renouveler plus vite leur iPhone c'est du marketing alors que le vrai enjeu c'est de faire un beau deal avec une boite pionnière pour avoir une super intégration iOS avec une LLM d'élite type GPT 4o et GPT o1 dans le cloud et avec respect des données, pas faire bosser une puce complètement sous dimensionnée pour une LLM.

Bref tu comprends rien au sujet

PetitMarcel
Niveau 36
04 octobre 2024 à 19:12:31

Le 27 septembre 2024 à 12:50:00 :

Le 26 septembre 2024 à 01:11:03 :

Le 25 septembre 2024 à 18:41:54 :
aucune idée, j'ai même l'impression qu'on parle jamais de l'ia sur mac

Pourtant ils sont consu pour l’ia.
J’imagine même pas le gain de temps avec Apple intelligence dessus ! Apple va prendre le lead pour l’intégration de l’ia fonctionnel pour les utilisateurs sur les device. C’est là où ils sont bon et la concurrence va copier

El famoso mac M1 "cousu pour l'IA" alors que c'est un SoC vieux de 4 ans tourné vers l'efficience et pas du tout sur l'IA. :rire:
Apple a au moins 2 ans de retard sur OpenAI et a été forcé de faire un gros cheque pour pouvoir intégrer ChatGPT dans Apple Intelligence. Apple fait tout pour rentrer au capital d'OpenAI et débauche activement des gens de chez eux et Nvidia.
Donc non c'est pas vraiment les leaders. C'est des suiveurs car ils n'ont pas le choix pour rester crédible.

Ils vont rattraper leur retard grace au fric quasi infini à disposition. Mais les vrais stars de l'IA c'est OpenAI et dans une moindre mesure Nvidia qui permet de train tous les modèles avec un hardware d'exception (design du GPU pour train les derniers modèles d'IA, énorme puissance GPU et surtout énorme VRAM).

Je pense que tu parles d'un sujet que tu comprends pas vraiment. La puissance d'Apple Intelligence meme sur un 16 pro est ridicule par rapport aux leaders, si tu as besoin d'un gros taf d'IA le calcul sera déporté de ton mac/iphone vers une partie private cloud computing (chatGPT par exemple). C'est mieux que rien mais ils partent de loin en l'état.

En tout cas tu as bien ingurgité la propagande nvidia :rire: nvidia star de l’ia, ouais a tel point que beaucoup d’acteurs sont entrain de passer sur amd pour train les modèles LLM car amd avec les MI300x sont au même niveau de nvidia et plus accessible :hap:

A tel point que nvidia a vite sortie Blackwell pour tenter de contrer la vague amd sur l’ia

Bref tout ça pour dire que moins de propagande plus d’action
Je comprends pas pourquoi Apple n’as pas acheté Open Ai ça serait plus simple

PetitMarcel
Niveau 36
04 octobre 2024 à 19:19:06

Le 04 octobre 2024 à 11:06:21 :

avoir l’IA qui travail en local, rassurer l’utilisateur sur la sécurité de ses données, ça fait parti de ce travail.

En pratique c'est impossible pendant au moins 5 ans (10 ?) sans un relais dans le cloud. Captain a raison tu parles d'un sujet dont tu ne comprends pas les fondations et donc de facto les prérequis techniques.
Pour avoir une IA aux standards actuels (chat GPT 4o) il faut environ un modèle à 1000 milliards de paramètres. A titre de comparaison un modèle pas si vieux de juste 1 an comme GPT 3.5 c'était 175 milliards ça te donne l'idée de la dynamique). Et le prochain standard c'est probablement GPT o1 encore plus puissant qui est en phase de fine-tuning.

Pour te donner une idée pour faire tourner un modèle tout petit avec pas 175 millliards et encore moins 1000 milliards mais de 7 milliards de paramètres seulement en local avec une bonne optimisation (Mixtral 7B de Mistral AI par exemple) il faut pour que cela tourne bien sans latence sur un pc portable, il faut :
- Un GPU Nvidia RTX, idéalement 4090/4080/3080Ti et ça passe convenablement avec 4060/4070/3080/3070
- 32 Go de RAM système minimum pour offloader la charge sur la VRAM des GPUs (tu vas utiliser 100% de la VRAM de ces GPU comprises entre 8 et 16 Go suivant les modèles) et utiliser aussi de la RAM système.
- Un CPU puissant (Intel 12-13-14th gen series HX ou Intel Ultra 9 185H ou autres équivalent chez Intel / AMD)

Bref je vais pas aller dans le détails mais ces configurations sont à des années lumières de qu'une puce sur smartphone peut faire en terme de puissance et c'est normal car tous ces composants réunis sont plus chers qu'un iPhone et consomme beaucoup de trop de W pour un smartphone (il serait trop chaud et la batterie lapidée).
Et on parle d'un modèle à 7 milliards donc avec moins d'intelligence, plus d'erreurs, moins de pertinence et de mémoire et on parle pas d'une LLM à ~1000 milliards comme GPT 4o...

Ce qu'il va se passer c'est qu'Apple va faire une baby LLM custom probablement achetée très chère auprès d'OpenAI en marque blanche dans iOS pour des taches simples et surtout spécialement entrainées pour ce qui est de plus probable en terme de requêtes sur un téléphone (un vrai Siri 2.0 en gros). Si tu veux un truc pertinent pour des demandes complexes ou assez spécifiques tout sera envoyé dans le cloud tu auras rien en local. Et tu peux privatiser la partie LLM dans cloud à la Apple rien de compliqué, il faut juste que la boite qui fasse la LLM trouve un accord avec Apple.

La réalité que les vraies LLMs seront toujours déportée dans le cloud car ça demande un hardware d'élite et en constante amélioration pour rester compétitif. Apple utilise l'AI comme un prétexte pour faire une pression sur les puces pour inciter les gens à renouveler plus vite leur iPhone c'est du marketing alors que le vrai enjeu c'est de faire un beau deal avec une boite pionnière pour avoir une super intégration iOS avec une LLM d'élite type GPT 4o et GPT o1 dans le cloud et avec respect des données, pas faire bosser une puce complètement sous dimensionnée pour une LLM.

Bref tu comprends rien au sujet

En vrai c’est une bonne explication :oui:
Toute façon moi le seul truc que j’attends vraiment avec l’ia c’est la traduction instantanée genre en appel, le reste osef perso

BugTinder12
Niveau 55
06 octobre 2024 à 16:08:48

Le 04 octobre 2024 à 19:19:06 :

Le 04 octobre 2024 à 11:06:21 :

avoir l’IA qui travail en local, rassurer l’utilisateur sur la sécurité de ses données, ça fait parti de ce travail.

En pratique c'est impossible pendant au moins 5 ans (10 ?) sans un relais dans le cloud. Captain a raison tu parles d'un sujet dont tu ne comprends pas les fondations et donc de facto les prérequis techniques.
Pour avoir une IA aux standards actuels (chat GPT 4o) il faut environ un modèle à 1000 milliards de paramètres. A titre de comparaison un modèle pas si vieux de juste 1 an comme GPT 3.5 c'était 175 milliards ça te donne l'idée de la dynamique). Et le prochain standard c'est probablement GPT o1 encore plus puissant qui est en phase de fine-tuning.

Pour te donner une idée pour faire tourner un modèle tout petit avec pas 175 millliards et encore moins 1000 milliards mais de 7 milliards de paramètres seulement en local avec une bonne optimisation (Mixtral 7B de Mistral AI par exemple) il faut pour que cela tourne bien sans latence sur un pc portable, il faut :
- Un GPU Nvidia RTX, idéalement 4090/4080/3080Ti et ça passe convenablement avec 4060/4070/3080/3070
- 32 Go de RAM système minimum pour offloader la charge sur la VRAM des GPUs (tu vas utiliser 100% de la VRAM de ces GPU comprises entre 8 et 16 Go suivant les modèles) et utiliser aussi de la RAM système.
- Un CPU puissant (Intel 12-13-14th gen series HX ou Intel Ultra 9 185H ou autres équivalent chez Intel / AMD)

Bref je vais pas aller dans le détails mais ces configurations sont à des années lumières de qu'une puce sur smartphone peut faire en terme de puissance et c'est normal car tous ces composants réunis sont plus chers qu'un iPhone et consomme beaucoup de trop de W pour un smartphone (il serait trop chaud et la batterie lapidée).
Et on parle d'un modèle à 7 milliards donc avec moins d'intelligence, plus d'erreurs, moins de pertinence et de mémoire et on parle pas d'une LLM à ~1000 milliards comme GPT 4o...

Ce qu'il va se passer c'est qu'Apple va faire une baby LLM custom probablement achetée très chère auprès d'OpenAI en marque blanche dans iOS pour des taches simples et surtout spécialement entrainées pour ce qui est de plus probable en terme de requêtes sur un téléphone (un vrai Siri 2.0 en gros). Si tu veux un truc pertinent pour des demandes complexes ou assez spécifiques tout sera envoyé dans le cloud tu auras rien en local. Et tu peux privatiser la partie LLM dans cloud à la Apple rien de compliqué, il faut juste que la boite qui fasse la LLM trouve un accord avec Apple.

La réalité que les vraies LLMs seront toujours déportée dans le cloud car ça demande un hardware d'élite et en constante amélioration pour rester compétitif. Apple utilise l'AI comme un prétexte pour faire une pression sur les puces pour inciter les gens à renouveler plus vite leur iPhone c'est du marketing alors que le vrai enjeu c'est de faire un beau deal avec une boite pionnière pour avoir une super intégration iOS avec une LLM d'élite type GPT 4o et GPT o1 dans le cloud et avec respect des données, pas faire bosser une puce complètement sous dimensionnée pour une LLM.

Bref tu comprends rien au sujet

En vrai c’est une bonne explication :oui:
Toute façon moi le seul truc que j’attends vraiment avec l’ia c’est la traduction instantanée genre en appel, le reste osef perso

La sur iOS 18 l’application traduction traduit presque instantanément une conversation mais pas en appel .
Ça devrait être possible en local pour les appels mais je me demande comment leur ia est entraînée pour s’améliorer et ne pas être à la traîne .

PetitMarcel
Niveau 36
06 octobre 2024 à 16:31:14

Sur la traduction Apple a du retard.. Samsung le fait déjà en appel il me semble :oui:

Je suis curieux de savoir comment ils entraînent leurs modèles pour ce genre de choses

1
Sujet : [Apple Intelligence] Les MACBOOK M1 devraient gérer sans problème selon vous ?
   Retour haut de page
Consulter la version web de cette page