Actuellement: oui (ça ou primusrun, censé le remplacer à terme), vu que je n'ai pas encore réussi à lancer Xorg avec le driver nvidia.
Enfin, si. Je viens de réussir à le lancer (en ajoutant le BusID de ma CG à mon xorg.conf), maintenant la blague c'est qu'au lancement, j'ai juste un blackscreen sur le tty7, avec un joli curseur qui clignote
Xorg est content hein, je peux retourner dans le tty où je l'ai lancé pour constater qu'il pisse le même merdier que quand il fonctionne sur mon autre PC (et s'arrête proprement avec un Ctrl + C), mais en attendant il n'affiche damn-rien sur l'écran.
Le problème c'est que je n'ai pas le schéma du matos Optimus en tête. Mais si j'ai bien compris, avec ce truc c'est la CG qui s'occupe du rendu, MAIS le chipset qui s'occupe de l'affichage (avec, j'imagine, un moyen confortable de transférer les frames de l'un à l'autre pour éviter de faire un bottleneck).
Donc donner le BusID de la CG à Xorg n'est peut être pas la meilleure idée qui soit... si elle n'est pas "câblée" à l'affichage.
Je confirme c'est bien ça, le GPU n'est tout simplement pas câblé à l'écran, c'est donc ça la magie d'Optimus
Pour le coup, la doc de Debian date de l'époque du bon vieux "Fuck you nVidia!" (datant d'avant l'évolution du driver, du kernel, de RandR et de Xorg) donc c'est purement useless.
Par contre, ya de l'info utile ici
http://wiki.gentoo.org/wiki/NVIDIA_Driver_with_Optimus_Laptops#xorg.conf_configuration
et sur la doc de nVidia. Faudra que j'aille faire un tour dans la doc de Xorg aussi en passant.
Au fait j'ai du retard, mais merci Nh3xus du conseil de la dernière fois
Je comptais bien utiliser du GPT et je suis au courant de ses restrictions moins présentes, mais pour moi c'est pas une raison de multiplier les partitions, par éxemple un disque qui arrive à /dev/sda12 pour moi ça fait un peu sale
Mais ce que je compte faire c'est d'abord créer une table de partitions GPT avec GParted, pour ensuite laisser Windows 8 gérer la partition EFI et système, réduire cette dernière et organiser mon bousin ensuite, je verrai sur place.
Une autre question : Ext4 est vraiment une valeur sure, mais y'a des alternatives intéressantes ? J'entends beaucoup parler du Brtfs, en bien. Y'a des avantages à l'utiliser ?
C'est fou mais j'ai l’impression que c'est beaucoup plus facile avec ma CG AMD récente en plus
Moopie le problème ne vient pas de la CG, fondamentalement, mais du câblage interne propre à Optimus
Ça oblige l'OS à mettre en place des mécanismes d'offloading, afin d'effectuer le rendu sur la CG puis l'affichage sur le chipset.
Bon sinon à ce sujet j'avance lentement vers l'objectif, mais là je vais être bon pour une recompilation du kernel car il manque quelques interfaces requises pour faire fonctionner le bricolage natif du driver nvidia.
Pourquoi préférer Chrome à Chromium ?
Google_Bot recompiler son kernel
Ya rien de très excitant à ça
(et d'ailleurs je ne l'ai pas fait en définitive, le problème ne vient pas de là, j'ai bien checké l'historique des sources du module DRM et les symboles manquants d'après la doc nVidia n'ont en fait jamais été exportés )
Bon, je lâche pas (j'ai vu des gens réussir à faire tourner ce fieffé driver sous Gentoo avec exactement le même matos que moi ) mais ça attendra que je récupère une connexion ADSL cette histoire, je perds un temps considérable à faire toutes mes manips en 3G.
Ah ? Tu utilise une clé 3G USB sous GNU/Linux ?
Cool
Nope, je fous mon téléphone en tethering WiFi et je me colle dessus.
Mais sinon en USB ça fonctionne aussi, un petit `ifconfig usb0 up && dhclient -v usb0` et on n'en parle plus
BON.
SINON.
ÇA Y EST.
nVidia 340.32-1 + Optimus + Debian Jessie = THIS IS A WIN (nofake)
J'ai chopé un message dans l'historique du bugtracker, en gros nVidia a introduit une régression dans le code fourni avec son paquet DKMS depuis la 330-quelque chose.
Quelle régression? Haha, accrochez-vous
En gros au lieu de tester les possibilirés de DRM du matos, on a un magnifique:
#define NV_DRM_AVAILABLE
// blablabla, je bosse chez nVidia, je code du caca...
Du coup bah avec de telles macros vous imaginez bien où on peut se le mettre le support d'Optimus
Bref, un petit coup de Vim, « #if 0 » devient « #if 42 », on recompile le machin avec DKMS, rmmod / modprobe et en avant la musique: support natif d'Optimus! (checké avec Minecraft, once again)
Quand j'aurai le temps je rédigerai un tuto un peu plus détaillé car ça n'est pas si compliqué que ça, une fois que quelqu'un a sacrifié un week-end pour déterminer les trucs à faire et ceux à ne pas faire
« J'ai chopé un message dans l'historique du bugtracker »: de Debian*, le bugtracker.
Je vous laisse le plaisir de lire https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=731265#36 , entre temps je me suis créé un compte sur les forums nVidia, je passerai leur faire un bisou un de ces quatre à eux aussi
Un bison à la Linus ?
F*ck you Nvidia ?
Non... enfin plutôt « ça vous fait comment, de laisser du code level SdZ dans votre driver depuis environ trois versions? »
Mais JMEF le tout c'est que ça fonctionne sur ma bécane et que je sache pourquoi
(le fait est qu'avec toutes ces conneries j'ai appris une quantité non-négligeable de choses sur le fonctionnement de Xorg, RandR, DRM &cie)
Du coup ayé, ThinkPad opérationnel sous Windows et Linux, support Optimus sur les deux OS... putain ça fait du bien de parvenir à ses fins, surtout quand ça implique de foutre des #if 42
Tu pourra me dire, ton autonomie sous Linux ?
Yeap j'essaierai de faire des mesures réalistes
Sachant que maintenant avec le support nVidia natif j'ai un peu plus de contrôle sur le GPU (via nvidia-settings notamment, feat. réglages de conso entre « Performances » et « Économie d'énergie »). Par contre je ne sais pas si je peux "couper" le GPU à chaud pour redonner la main au chipset Intel pour le rendu (vu qu'à la base Optimus c'est aussi censé servir à ça).
Je viens de me poser des quartations con sur Chromium
Est ce que chromium est totalement open-source ? Il n'est pas libre ? A t il les trackers google inclus ?
https://packages.debian.org/fr/wheezy/chromium
C'est dans main, pas contrib ni non-free. Quand on connait la politique de Debian sur le soft libre... ça veut dire que c'est VRAIMENT libre (rappel: la doc gcc n'est "pas libre" selon Debian).
Google_Bot : > Moi et ma minute d'autonomie t'emmerdons d'avance. Cordialement.
G_B, quelles sont les performances de minecraft avec ta carte nVidia sur Linux par rapport à Windows ? (D'ailleurs c'est laquelle ta carte ?)
Depuis le rachat de Microsoft, Minecraft tourne à 10 FPS sur Linux :troll: