Merge branch 'x86-urgent-for-linus' of git://git.kernel.org/pub/scm/linux/kernel...
authorLinus Torvalds <torvalds@linux-foundation.org>
Sat, 4 Jul 2015 15:58:50 +0000 (08:58 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Sat, 4 Jul 2015 15:58:50 +0000 (08:58 -0700)
Pull x86 fixes from Ingo Molnar:
 "Two FPU rewrite related fixes.  This addresses all known x86
  regressions at this stage.  Also some other misc fixes"

* 'x86-urgent-for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/tip:
  x86/fpu: Fix boot crash in the early FPU code
  x86/asm/entry/64: Update path names
  x86/fpu: Fix FPU related boot regression when CPUID masking BIOS feature is enabled
  x86/boot/setup: Clean up the e820_reserve_setup_data() code
  x86/kaslr: Fix typo in the KASLR_FLAG documentation

Documentation/x86/boot.txt
Documentation/x86/entry_64.txt
arch/x86/kernel/cpu/common.c
arch/x86/kernel/fpu/init.c
arch/x86/kernel/setup.c

index 7c1f9fad667460ff143b867ca5ce5d629560e876..9da6f3512249621ce8bc02dfa6d3b9e5688c1042 100644 (file)
@@ -406,7 +406,7 @@ Protocol:   2.00+
        - If 0, the protected-mode code is loaded at 0x10000.
        - If 1, the protected-mode code is loaded at 0x100000.
 
-  Bit 1 (kernel internal): ALSR_FLAG
+  Bit 1 (kernel internal): KASLR_FLAG
        - Used internally by the compressed kernel to communicate
          KASLR status to kernel proper.
          If 1, KASLR enabled.
index 33884d15612599805f922f386474109ab44998ed..c1df8eba9dfd4dca604dd11c06b40fa4413bc89b 100644 (file)
@@ -1,14 +1,14 @@
 This file documents some of the kernel entries in
-arch/x86/kernel/entry_64.S.  A lot of this explanation is adapted from
+arch/x86/entry/entry_64.S.  A lot of this explanation is adapted from
 an email from Ingo Molnar:
 
 http://lkml.kernel.org/r/<20110529191055.GC9835%40elte.hu>
 
 The x86 architecture has quite a few different ways to jump into
 kernel code.  Most of these entry points are registered in
-arch/x86/kernel/traps.c and implemented in arch/x86/kernel/entry_64.S
-for 64-bit, arch/x86/kernel/entry_32.S for 32-bit and finally
-arch/x86/ia32/ia32entry.S which implements the 32-bit compatibility
+arch/x86/kernel/traps.c and implemented in arch/x86/entry/entry_64.S
+for 64-bit, arch/x86/entry/entry_32.S for 32-bit and finally
+arch/x86/entry/entry_64_compat.S which implements the 32-bit compatibility
 syscall entry points and thus provides for 32-bit processes the
 ability to execute syscalls when running on 64-bit kernels.
 
index 9fc5e3d9d9c8390f4c9bb177449979061f20bb14..922c5e0cea4c961b1aa6e7a266ce588de7f7a300 100644 (file)
@@ -742,7 +742,6 @@ static void __init early_identify_cpu(struct cpuinfo_x86 *c)
        cpu_detect(c);
        get_cpu_vendor(c);
        get_cpu_cap(c);
-       fpu__init_system(c);
 
        if (this_cpu->c_early_init)
                this_cpu->c_early_init(c);
@@ -754,6 +753,7 @@ static void __init early_identify_cpu(struct cpuinfo_x86 *c)
                this_cpu->c_bsp_init(c);
 
        setup_force_cpu_cap(X86_FEATURE_ALWAYS);
+       fpu__init_system(c);
 }
 
 void __init early_cpu_init(void)
index fc878fee6a512a4485ac1d37db76da75f2501f25..32826791e6757203b5440dad36f5e80b3fc8fbe9 100644 (file)
@@ -95,11 +95,12 @@ static void __init fpu__init_system_mxcsr(void)
        unsigned int mask = 0;
 
        if (cpu_has_fxsr) {
-               struct fxregs_state fx_tmp __aligned(32) = { };
+               /* Static because GCC does not get 16-byte stack alignment right: */
+               static struct fxregs_state fxregs __initdata;
 
-               asm volatile("fxsave %0" : "+m" (fx_tmp));
+               asm volatile("fxsave %0" : "+m" (fxregs));
 
-               mask = fx_tmp.mxcsr_mask;
+               mask = fxregs.mxcsr_mask;
 
                /*
                 * If zero then use the default features mask,
index d3b95b89e9b2974401b48b534bf71604d7db57cc..80f874bf999e3cfbb62eae13b8cf0d1b4a2c3c18 100644 (file)
@@ -461,19 +461,18 @@ static void __init e820_reserve_setup_data(void)
 {
        struct setup_data *data;
        u64 pa_data;
-       int found = 0;
 
        pa_data = boot_params.hdr.setup_data;
+       if (!pa_data)
+               return;
+
        while (pa_data) {
                data = early_memremap(pa_data, sizeof(*data));
                e820_update_range(pa_data, sizeof(*data)+data->len,
                         E820_RAM, E820_RESERVED_KERN);
-               found = 1;
                pa_data = data->next;
                early_memunmap(data, sizeof(*data));
        }
-       if (!found)
-               return;
 
        sanitize_e820_map(e820.map, ARRAY_SIZE(e820.map), &e820.nr_map);
        memcpy(&e820_saved, &e820, sizeof(struct e820map));