Merge branches 'pm-cpufreq', 'pm-cpuidle', 'pm-devfreq', 'pm-opp' and 'pm-tools'
[linux-drm-fsl-dcu.git] / arch / powerpc / sysdev / fsl_pci.c
1 /*
2  * MPC83xx/85xx/86xx PCI/PCIE support routing.
3  *
4  * Copyright 2007-2012 Freescale Semiconductor, Inc.
5  * Copyright 2008-2009 MontaVista Software, Inc.
6  *
7  * Initial author: Xianghua Xiao <x.xiao@freescale.com>
8  * Recode: ZHANG WEI <wei.zhang@freescale.com>
9  * Rewrite the routing for Frescale PCI and PCI Express
10  *      Roy Zang <tie-fei.zang@freescale.com>
11  * MPC83xx PCI-Express support:
12  *      Tony Li <tony.li@freescale.com>
13  *      Anton Vorontsov <avorontsov@ru.mvista.com>
14  *
15  * This program is free software; you can redistribute  it and/or modify it
16  * under  the terms of  the GNU General  Public License as published by the
17  * Free Software Foundation;  either version 2 of the  License, or (at your
18  * option) any later version.
19  */
20 #include <linux/kernel.h>
21 #include <linux/pci.h>
22 #include <linux/delay.h>
23 #include <linux/string.h>
24 #include <linux/init.h>
25 #include <linux/interrupt.h>
26 #include <linux/memblock.h>
27 #include <linux/log2.h>
28 #include <linux/slab.h>
29 #include <linux/suspend.h>
30 #include <linux/syscore_ops.h>
31 #include <linux/uaccess.h>
32
33 #include <asm/io.h>
34 #include <asm/prom.h>
35 #include <asm/pci-bridge.h>
36 #include <asm/ppc-pci.h>
37 #include <asm/machdep.h>
38 #include <asm/disassemble.h>
39 #include <asm/ppc-opcode.h>
40 #include <sysdev/fsl_soc.h>
41 #include <sysdev/fsl_pci.h>
42
43 static int fsl_pcie_bus_fixup, is_mpc83xx_pci;
44
45 static void quirk_fsl_pcie_early(struct pci_dev *dev)
46 {
47         u8 hdr_type;
48
49         /* if we aren't a PCIe don't bother */
50         if (!pci_is_pcie(dev))
51                 return;
52
53         /* if we aren't in host mode don't bother */
54         pci_read_config_byte(dev, PCI_HEADER_TYPE, &hdr_type);
55         if ((hdr_type & 0x7f) != PCI_HEADER_TYPE_BRIDGE)
56                 return;
57
58         dev->class = PCI_CLASS_BRIDGE_PCI << 8;
59         fsl_pcie_bus_fixup = 1;
60         return;
61 }
62
63 static int fsl_indirect_read_config(struct pci_bus *, unsigned int,
64                                     int, int, u32 *);
65
66 static int fsl_pcie_check_link(struct pci_controller *hose)
67 {
68         u32 val = 0;
69
70         if (hose->indirect_type & PPC_INDIRECT_TYPE_FSL_CFG_REG_LINK) {
71                 if (hose->ops->read == fsl_indirect_read_config) {
72                         struct pci_bus bus;
73                         bus.number = hose->first_busno;
74                         bus.sysdata = hose;
75                         bus.ops = hose->ops;
76                         indirect_read_config(&bus, 0, PCIE_LTSSM, 4, &val);
77                 } else
78                         early_read_config_dword(hose, 0, 0, PCIE_LTSSM, &val);
79                 if (val < PCIE_LTSSM_L0)
80                         return 1;
81         } else {
82                 struct ccsr_pci __iomem *pci = hose->private_data;
83                 /* for PCIe IP rev 3.0 or greater use CSR0 for link state */
84                 val = (in_be32(&pci->pex_csr0) & PEX_CSR0_LTSSM_MASK)
85                                 >> PEX_CSR0_LTSSM_SHIFT;
86                 if (val != PEX_CSR0_LTSSM_L0)
87                         return 1;
88         }
89
90         return 0;
91 }
92
93 static int fsl_indirect_read_config(struct pci_bus *bus, unsigned int devfn,
94                                     int offset, int len, u32 *val)
95 {
96         struct pci_controller *hose = pci_bus_to_host(bus);
97
98         if (fsl_pcie_check_link(hose))
99                 hose->indirect_type |= PPC_INDIRECT_TYPE_NO_PCIE_LINK;
100         else
101                 hose->indirect_type &= ~PPC_INDIRECT_TYPE_NO_PCIE_LINK;
102
103         return indirect_read_config(bus, devfn, offset, len, val);
104 }
105
106 #if defined(CONFIG_FSL_SOC_BOOKE) || defined(CONFIG_PPC_86xx)
107
108 static struct pci_ops fsl_indirect_pcie_ops =
109 {
110         .read = fsl_indirect_read_config,
111         .write = indirect_write_config,
112 };
113
114 #define MAX_PHYS_ADDR_BITS      40
115 static u64 pci64_dma_offset = 1ull << MAX_PHYS_ADDR_BITS;
116
117 static int fsl_pci_dma_set_mask(struct device *dev, u64 dma_mask)
118 {
119         if (!dev->dma_mask || !dma_supported(dev, dma_mask))
120                 return -EIO;
121
122         /*
123          * Fixup PCI devices that are able to DMA to above the physical
124          * address width of the SoC such that we can address any internal
125          * SoC address from across PCI if needed
126          */
127         if ((dev_is_pci(dev)) &&
128             dma_mask >= DMA_BIT_MASK(MAX_PHYS_ADDR_BITS)) {
129                 set_dma_ops(dev, &dma_direct_ops);
130                 set_dma_offset(dev, pci64_dma_offset);
131         }
132
133         *dev->dma_mask = dma_mask;
134         return 0;
135 }
136
137 static int setup_one_atmu(struct ccsr_pci __iomem *pci,
138         unsigned int index, const struct resource *res,
139         resource_size_t offset)
140 {
141         resource_size_t pci_addr = res->start - offset;
142         resource_size_t phys_addr = res->start;
143         resource_size_t size = resource_size(res);
144         u32 flags = 0x80044000; /* enable & mem R/W */
145         unsigned int i;
146
147         pr_debug("PCI MEM resource start 0x%016llx, size 0x%016llx.\n",
148                 (u64)res->start, (u64)size);
149
150         if (res->flags & IORESOURCE_PREFETCH)
151                 flags |= 0x10000000; /* enable relaxed ordering */
152
153         for (i = 0; size > 0; i++) {
154                 unsigned int bits = min_t(u32, ilog2(size),
155                                         __ffs(pci_addr | phys_addr));
156
157                 if (index + i >= 5)
158                         return -1;
159
160                 out_be32(&pci->pow[index + i].potar, pci_addr >> 12);
161                 out_be32(&pci->pow[index + i].potear, (u64)pci_addr >> 44);
162                 out_be32(&pci->pow[index + i].powbar, phys_addr >> 12);
163                 out_be32(&pci->pow[index + i].powar, flags | (bits - 1));
164
165                 pci_addr += (resource_size_t)1U << bits;
166                 phys_addr += (resource_size_t)1U << bits;
167                 size -= (resource_size_t)1U << bits;
168         }
169
170         return i;
171 }
172
173 /* atmu setup for fsl pci/pcie controller */
174 static void setup_pci_atmu(struct pci_controller *hose)
175 {
176         struct ccsr_pci __iomem *pci = hose->private_data;
177         int i, j, n, mem_log, win_idx = 3, start_idx = 1, end_idx = 4;
178         u64 mem, sz, paddr_hi = 0;
179         u64 offset = 0, paddr_lo = ULLONG_MAX;
180         u32 pcicsrbar = 0, pcicsrbar_sz;
181         u32 piwar = PIWAR_EN | PIWAR_PF | PIWAR_TGI_LOCAL |
182                         PIWAR_READ_SNOOP | PIWAR_WRITE_SNOOP;
183         const char *name = hose->dn->full_name;
184         const u64 *reg;
185         int len;
186
187         if (early_find_capability(hose, 0, 0, PCI_CAP_ID_EXP)) {
188                 if (in_be32(&pci->block_rev1) >= PCIE_IP_REV_2_2) {
189                         win_idx = 2;
190                         start_idx = 0;
191                         end_idx = 3;
192                 }
193         }
194
195         /* Disable all windows (except powar0 since it's ignored) */
196         for(i = 1; i < 5; i++)
197                 out_be32(&pci->pow[i].powar, 0);
198         for (i = start_idx; i < end_idx; i++)
199                 out_be32(&pci->piw[i].piwar, 0);
200
201         /* Setup outbound MEM window */
202         for(i = 0, j = 1; i < 3; i++) {
203                 if (!(hose->mem_resources[i].flags & IORESOURCE_MEM))
204                         continue;
205
206                 paddr_lo = min(paddr_lo, (u64)hose->mem_resources[i].start);
207                 paddr_hi = max(paddr_hi, (u64)hose->mem_resources[i].end);
208
209                 /* We assume all memory resources have the same offset */
210                 offset = hose->mem_offset[i];
211                 n = setup_one_atmu(pci, j, &hose->mem_resources[i], offset);
212
213                 if (n < 0 || j >= 5) {
214                         pr_err("Ran out of outbound PCI ATMUs for resource %d!\n", i);
215                         hose->mem_resources[i].flags |= IORESOURCE_DISABLED;
216                 } else
217                         j += n;
218         }
219
220         /* Setup outbound IO window */
221         if (hose->io_resource.flags & IORESOURCE_IO) {
222                 if (j >= 5) {
223                         pr_err("Ran out of outbound PCI ATMUs for IO resource\n");
224                 } else {
225                         pr_debug("PCI IO resource start 0x%016llx, size 0x%016llx, "
226                                  "phy base 0x%016llx.\n",
227                                  (u64)hose->io_resource.start,
228                                  (u64)resource_size(&hose->io_resource),
229                                  (u64)hose->io_base_phys);
230                         out_be32(&pci->pow[j].potar, (hose->io_resource.start >> 12));
231                         out_be32(&pci->pow[j].potear, 0);
232                         out_be32(&pci->pow[j].powbar, (hose->io_base_phys >> 12));
233                         /* Enable, IO R/W */
234                         out_be32(&pci->pow[j].powar, 0x80088000
235                                 | (ilog2(hose->io_resource.end
236                                 - hose->io_resource.start + 1) - 1));
237                 }
238         }
239
240         /* convert to pci address space */
241         paddr_hi -= offset;
242         paddr_lo -= offset;
243
244         if (paddr_hi == paddr_lo) {
245                 pr_err("%s: No outbound window space\n", name);
246                 return;
247         }
248
249         if (paddr_lo == 0) {
250                 pr_err("%s: No space for inbound window\n", name);
251                 return;
252         }
253
254         /* setup PCSRBAR/PEXCSRBAR */
255         early_write_config_dword(hose, 0, 0, PCI_BASE_ADDRESS_0, 0xffffffff);
256         early_read_config_dword(hose, 0, 0, PCI_BASE_ADDRESS_0, &pcicsrbar_sz);
257         pcicsrbar_sz = ~pcicsrbar_sz + 1;
258
259         if (paddr_hi < (0x100000000ull - pcicsrbar_sz) ||
260                 (paddr_lo > 0x100000000ull))
261                 pcicsrbar = 0x100000000ull - pcicsrbar_sz;
262         else
263                 pcicsrbar = (paddr_lo - pcicsrbar_sz) & -pcicsrbar_sz;
264         early_write_config_dword(hose, 0, 0, PCI_BASE_ADDRESS_0, pcicsrbar);
265
266         paddr_lo = min(paddr_lo, (u64)pcicsrbar);
267
268         pr_info("%s: PCICSRBAR @ 0x%x\n", name, pcicsrbar);
269
270         /* Setup inbound mem window */
271         mem = memblock_end_of_DRAM();
272
273         /*
274          * The msi-address-64 property, if it exists, indicates the physical
275          * address of the MSIIR register.  Normally, this register is located
276          * inside CCSR, so the ATMU that covers all of CCSR is used. But if
277          * this property exists, then we normally need to create a new ATMU
278          * for it.  For now, however, we cheat.  The only entity that creates
279          * this property is the Freescale hypervisor, and the address is
280          * specified in the partition configuration.  Typically, the address
281          * is located in the page immediately after the end of DDR.  If so, we
282          * can avoid allocating a new ATMU by extending the DDR ATMU by one
283          * page.
284          */
285         reg = of_get_property(hose->dn, "msi-address-64", &len);
286         if (reg && (len == sizeof(u64))) {
287                 u64 address = be64_to_cpup(reg);
288
289                 if ((address >= mem) && (address < (mem + PAGE_SIZE))) {
290                         pr_info("%s: extending DDR ATMU to cover MSIIR", name);
291                         mem += PAGE_SIZE;
292                 } else {
293                         /* TODO: Create a new ATMU for MSIIR */
294                         pr_warn("%s: msi-address-64 address of %llx is "
295                                 "unsupported\n", name, address);
296                 }
297         }
298
299         sz = min(mem, paddr_lo);
300         mem_log = ilog2(sz);
301
302         /* PCIe can overmap inbound & outbound since RX & TX are separated */
303         if (early_find_capability(hose, 0, 0, PCI_CAP_ID_EXP)) {
304                 /* Size window to exact size if power-of-two or one size up */
305                 if ((1ull << mem_log) != mem) {
306                         mem_log++;
307                         if ((1ull << mem_log) > mem)
308                                 pr_info("%s: Setting PCI inbound window "
309                                         "greater than memory size\n", name);
310                 }
311
312                 piwar |= ((mem_log - 1) & PIWAR_SZ_MASK);
313
314                 /* Setup inbound memory window */
315                 out_be32(&pci->piw[win_idx].pitar,  0x00000000);
316                 out_be32(&pci->piw[win_idx].piwbar, 0x00000000);
317                 out_be32(&pci->piw[win_idx].piwar,  piwar);
318                 win_idx--;
319
320                 hose->dma_window_base_cur = 0x00000000;
321                 hose->dma_window_size = (resource_size_t)sz;
322
323                 /*
324                  * if we have >4G of memory setup second PCI inbound window to
325                  * let devices that are 64-bit address capable to work w/o
326                  * SWIOTLB and access the full range of memory
327                  */
328                 if (sz != mem) {
329                         mem_log = ilog2(mem);
330
331                         /* Size window up if we dont fit in exact power-of-2 */
332                         if ((1ull << mem_log) != mem)
333                                 mem_log++;
334
335                         piwar = (piwar & ~PIWAR_SZ_MASK) | (mem_log - 1);
336
337                         /* Setup inbound memory window */
338                         out_be32(&pci->piw[win_idx].pitar,  0x00000000);
339                         out_be32(&pci->piw[win_idx].piwbear,
340                                         pci64_dma_offset >> 44);
341                         out_be32(&pci->piw[win_idx].piwbar,
342                                         pci64_dma_offset >> 12);
343                         out_be32(&pci->piw[win_idx].piwar,  piwar);
344
345                         /*
346                          * install our own dma_set_mask handler to fixup dma_ops
347                          * and dma_offset
348                          */
349                         ppc_md.dma_set_mask = fsl_pci_dma_set_mask;
350
351                         pr_info("%s: Setup 64-bit PCI DMA window\n", name);
352                 }
353         } else {
354                 u64 paddr = 0;
355
356                 /* Setup inbound memory window */
357                 out_be32(&pci->piw[win_idx].pitar,  paddr >> 12);
358                 out_be32(&pci->piw[win_idx].piwbar, paddr >> 12);
359                 out_be32(&pci->piw[win_idx].piwar,  (piwar | (mem_log - 1)));
360                 win_idx--;
361
362                 paddr += 1ull << mem_log;
363                 sz -= 1ull << mem_log;
364
365                 if (sz) {
366                         mem_log = ilog2(sz);
367                         piwar |= (mem_log - 1);
368
369                         out_be32(&pci->piw[win_idx].pitar,  paddr >> 12);
370                         out_be32(&pci->piw[win_idx].piwbar, paddr >> 12);
371                         out_be32(&pci->piw[win_idx].piwar,  piwar);
372                         win_idx--;
373
374                         paddr += 1ull << mem_log;
375                 }
376
377                 hose->dma_window_base_cur = 0x00000000;
378                 hose->dma_window_size = (resource_size_t)paddr;
379         }
380
381         if (hose->dma_window_size < mem) {
382 #ifdef CONFIG_SWIOTLB
383                 ppc_swiotlb_enable = 1;
384 #else
385                 pr_err("%s: ERROR: Memory size exceeds PCI ATMU ability to "
386                         "map - enable CONFIG_SWIOTLB to avoid dma errors.\n",
387                          name);
388 #endif
389                 /* adjusting outbound windows could reclaim space in mem map */
390                 if (paddr_hi < 0xffffffffull)
391                         pr_warning("%s: WARNING: Outbound window cfg leaves "
392                                 "gaps in memory map. Adjusting the memory map "
393                                 "could reduce unnecessary bounce buffering.\n",
394                                 name);
395
396                 pr_info("%s: DMA window size is 0x%llx\n", name,
397                         (u64)hose->dma_window_size);
398         }
399 }
400
401 static void __init setup_pci_cmd(struct pci_controller *hose)
402 {
403         u16 cmd;
404         int cap_x;
405
406         early_read_config_word(hose, 0, 0, PCI_COMMAND, &cmd);
407         cmd |= PCI_COMMAND_SERR | PCI_COMMAND_MASTER | PCI_COMMAND_MEMORY
408                 | PCI_COMMAND_IO;
409         early_write_config_word(hose, 0, 0, PCI_COMMAND, cmd);
410
411         cap_x = early_find_capability(hose, 0, 0, PCI_CAP_ID_PCIX);
412         if (cap_x) {
413                 int pci_x_cmd = cap_x + PCI_X_CMD;
414                 cmd = PCI_X_CMD_MAX_SPLIT | PCI_X_CMD_MAX_READ
415                         | PCI_X_CMD_ERO | PCI_X_CMD_DPERR_E;
416                 early_write_config_word(hose, 0, 0, pci_x_cmd, cmd);
417         } else {
418                 early_write_config_byte(hose, 0, 0, PCI_LATENCY_TIMER, 0x80);
419         }
420 }
421
422 void fsl_pcibios_fixup_bus(struct pci_bus *bus)
423 {
424         struct pci_controller *hose = pci_bus_to_host(bus);
425         int i, is_pcie = 0, no_link;
426
427         /* The root complex bridge comes up with bogus resources,
428          * we copy the PHB ones in.
429          *
430          * With the current generic PCI code, the PHB bus no longer
431          * has bus->resource[0..4] set, so things are a bit more
432          * tricky.
433          */
434
435         if (fsl_pcie_bus_fixup)
436                 is_pcie = early_find_capability(hose, 0, 0, PCI_CAP_ID_EXP);
437         no_link = !!(hose->indirect_type & PPC_INDIRECT_TYPE_NO_PCIE_LINK);
438
439         if (bus->parent == hose->bus && (is_pcie || no_link)) {
440                 for (i = 0; i < PCI_BRIDGE_RESOURCE_NUM; ++i) {
441                         struct resource *res = bus->resource[i];
442                         struct resource *par;
443
444                         if (!res)
445                                 continue;
446                         if (i == 0)
447                                 par = &hose->io_resource;
448                         else if (i < 4)
449                                 par = &hose->mem_resources[i-1];
450                         else par = NULL;
451
452                         res->start = par ? par->start : 0;
453                         res->end   = par ? par->end   : 0;
454                         res->flags = par ? par->flags : 0;
455                 }
456         }
457 }
458
459 int fsl_add_bridge(struct platform_device *pdev, int is_primary)
460 {
461         int len;
462         struct pci_controller *hose;
463         struct resource rsrc;
464         const int *bus_range;
465         u8 hdr_type, progif;
466         struct device_node *dev;
467         struct ccsr_pci __iomem *pci;
468
469         dev = pdev->dev.of_node;
470
471         if (!of_device_is_available(dev)) {
472                 pr_warning("%s: disabled\n", dev->full_name);
473                 return -ENODEV;
474         }
475
476         pr_debug("Adding PCI host bridge %s\n", dev->full_name);
477
478         /* Fetch host bridge registers address */
479         if (of_address_to_resource(dev, 0, &rsrc)) {
480                 printk(KERN_WARNING "Can't get pci register base!");
481                 return -ENOMEM;
482         }
483
484         /* Get bus range if any */
485         bus_range = of_get_property(dev, "bus-range", &len);
486         if (bus_range == NULL || len < 2 * sizeof(int))
487                 printk(KERN_WARNING "Can't get bus-range for %s, assume"
488                         " bus 0\n", dev->full_name);
489
490         pci_add_flags(PCI_REASSIGN_ALL_BUS);
491         hose = pcibios_alloc_controller(dev);
492         if (!hose)
493                 return -ENOMEM;
494
495         /* set platform device as the parent */
496         hose->parent = &pdev->dev;
497         hose->first_busno = bus_range ? bus_range[0] : 0x0;
498         hose->last_busno = bus_range ? bus_range[1] : 0xff;
499
500         pr_debug("PCI memory map start 0x%016llx, size 0x%016llx\n",
501                  (u64)rsrc.start, (u64)resource_size(&rsrc));
502
503         pci = hose->private_data = ioremap(rsrc.start, resource_size(&rsrc));
504         if (!hose->private_data)
505                 goto no_bridge;
506
507         setup_indirect_pci(hose, rsrc.start, rsrc.start + 0x4,
508                            PPC_INDIRECT_TYPE_BIG_ENDIAN);
509
510         if (in_be32(&pci->block_rev1) < PCIE_IP_REV_3_0)
511                 hose->indirect_type |= PPC_INDIRECT_TYPE_FSL_CFG_REG_LINK;
512
513         if (early_find_capability(hose, 0, 0, PCI_CAP_ID_EXP)) {
514                 /* use fsl_indirect_read_config for PCIe */
515                 hose->ops = &fsl_indirect_pcie_ops;
516                 /* For PCIE read HEADER_TYPE to identify controler mode */
517                 early_read_config_byte(hose, 0, 0, PCI_HEADER_TYPE, &hdr_type);
518                 if ((hdr_type & 0x7f) != PCI_HEADER_TYPE_BRIDGE)
519                         goto no_bridge;
520
521         } else {
522                 /* For PCI read PROG to identify controller mode */
523                 early_read_config_byte(hose, 0, 0, PCI_CLASS_PROG, &progif);
524                 if ((progif & 1) &&
525                     !of_property_read_bool(dev, "fsl,pci-agent-force-enum"))
526                         goto no_bridge;
527         }
528
529         setup_pci_cmd(hose);
530
531         /* check PCI express link status */
532         if (early_find_capability(hose, 0, 0, PCI_CAP_ID_EXP)) {
533                 hose->indirect_type |= PPC_INDIRECT_TYPE_EXT_REG |
534                         PPC_INDIRECT_TYPE_SURPRESS_PRIMARY_BUS;
535                 if (fsl_pcie_check_link(hose))
536                         hose->indirect_type |= PPC_INDIRECT_TYPE_NO_PCIE_LINK;
537         }
538
539         printk(KERN_INFO "Found FSL PCI host bridge at 0x%016llx. "
540                 "Firmware bus number: %d->%d\n",
541                 (unsigned long long)rsrc.start, hose->first_busno,
542                 hose->last_busno);
543
544         pr_debug(" ->Hose at 0x%p, cfg_addr=0x%p,cfg_data=0x%p\n",
545                 hose, hose->cfg_addr, hose->cfg_data);
546
547         /* Interpret the "ranges" property */
548         /* This also maps the I/O region and sets isa_io/mem_base */
549         pci_process_bridge_OF_ranges(hose, dev, is_primary);
550
551         /* Setup PEX window registers */
552         setup_pci_atmu(hose);
553
554         return 0;
555
556 no_bridge:
557         iounmap(hose->private_data);
558         /* unmap cfg_data & cfg_addr separately if not on same page */
559         if (((unsigned long)hose->cfg_data & PAGE_MASK) !=
560             ((unsigned long)hose->cfg_addr & PAGE_MASK))
561                 iounmap(hose->cfg_data);
562         iounmap(hose->cfg_addr);
563         pcibios_free_controller(hose);
564         return -ENODEV;
565 }
566 #endif /* CONFIG_FSL_SOC_BOOKE || CONFIG_PPC_86xx */
567
568 DECLARE_PCI_FIXUP_EARLY(PCI_VENDOR_ID_FREESCALE, PCI_ANY_ID,
569                         quirk_fsl_pcie_early);
570
571 #if defined(CONFIG_PPC_83xx) || defined(CONFIG_PPC_MPC512x)
572 struct mpc83xx_pcie_priv {
573         void __iomem *cfg_type0;
574         void __iomem *cfg_type1;
575         u32 dev_base;
576 };
577
578 struct pex_inbound_window {
579         u32 ar;
580         u32 tar;
581         u32 barl;
582         u32 barh;
583 };
584
585 /*
586  * With the convention of u-boot, the PCIE outbound window 0 serves
587  * as configuration transactions outbound.
588  */
589 #define PEX_OUTWIN0_BAR         0xCA4
590 #define PEX_OUTWIN0_TAL         0xCA8
591 #define PEX_OUTWIN0_TAH         0xCAC
592 #define PEX_RC_INWIN_BASE       0xE60
593 #define PEX_RCIWARn_EN          0x1
594
595 static int mpc83xx_pcie_exclude_device(struct pci_bus *bus, unsigned int devfn)
596 {
597         struct pci_controller *hose = pci_bus_to_host(bus);
598
599         if (hose->indirect_type & PPC_INDIRECT_TYPE_NO_PCIE_LINK)
600                 return PCIBIOS_DEVICE_NOT_FOUND;
601         /*
602          * Workaround for the HW bug: for Type 0 configure transactions the
603          * PCI-E controller does not check the device number bits and just
604          * assumes that the device number bits are 0.
605          */
606         if (bus->number == hose->first_busno ||
607                         bus->primary == hose->first_busno) {
608                 if (devfn & 0xf8)
609                         return PCIBIOS_DEVICE_NOT_FOUND;
610         }
611
612         if (ppc_md.pci_exclude_device) {
613                 if (ppc_md.pci_exclude_device(hose, bus->number, devfn))
614                         return PCIBIOS_DEVICE_NOT_FOUND;
615         }
616
617         return PCIBIOS_SUCCESSFUL;
618 }
619
620 static void __iomem *mpc83xx_pcie_remap_cfg(struct pci_bus *bus,
621                                             unsigned int devfn, int offset)
622 {
623         struct pci_controller *hose = pci_bus_to_host(bus);
624         struct mpc83xx_pcie_priv *pcie = hose->dn->data;
625         u32 dev_base = bus->number << 24 | devfn << 16;
626         int ret;
627
628         ret = mpc83xx_pcie_exclude_device(bus, devfn);
629         if (ret)
630                 return NULL;
631
632         offset &= 0xfff;
633
634         /* Type 0 */
635         if (bus->number == hose->first_busno)
636                 return pcie->cfg_type0 + offset;
637
638         if (pcie->dev_base == dev_base)
639                 goto mapped;
640
641         out_le32(pcie->cfg_type0 + PEX_OUTWIN0_TAL, dev_base);
642
643         pcie->dev_base = dev_base;
644 mapped:
645         return pcie->cfg_type1 + offset;
646 }
647
648 static int mpc83xx_pcie_write_config(struct pci_bus *bus, unsigned int devfn,
649                                      int offset, int len, u32 val)
650 {
651         struct pci_controller *hose = pci_bus_to_host(bus);
652
653         /* PPC_INDIRECT_TYPE_SURPRESS_PRIMARY_BUS */
654         if (offset == PCI_PRIMARY_BUS && bus->number == hose->first_busno)
655                 val &= 0xffffff00;
656
657         return pci_generic_config_write(bus, devfn, offset, len, val);
658 }
659
660 static struct pci_ops mpc83xx_pcie_ops = {
661         .map_bus = mpc83xx_pcie_remap_cfg,
662         .read = pci_generic_config_read,
663         .write = mpc83xx_pcie_write_config,
664 };
665
666 static int __init mpc83xx_pcie_setup(struct pci_controller *hose,
667                                      struct resource *reg)
668 {
669         struct mpc83xx_pcie_priv *pcie;
670         u32 cfg_bar;
671         int ret = -ENOMEM;
672
673         pcie = zalloc_maybe_bootmem(sizeof(*pcie), GFP_KERNEL);
674         if (!pcie)
675                 return ret;
676
677         pcie->cfg_type0 = ioremap(reg->start, resource_size(reg));
678         if (!pcie->cfg_type0)
679                 goto err0;
680
681         cfg_bar = in_le32(pcie->cfg_type0 + PEX_OUTWIN0_BAR);
682         if (!cfg_bar) {
683                 /* PCI-E isn't configured. */
684                 ret = -ENODEV;
685                 goto err1;
686         }
687
688         pcie->cfg_type1 = ioremap(cfg_bar, 0x1000);
689         if (!pcie->cfg_type1)
690                 goto err1;
691
692         WARN_ON(hose->dn->data);
693         hose->dn->data = pcie;
694         hose->ops = &mpc83xx_pcie_ops;
695         hose->indirect_type |= PPC_INDIRECT_TYPE_FSL_CFG_REG_LINK;
696
697         out_le32(pcie->cfg_type0 + PEX_OUTWIN0_TAH, 0);
698         out_le32(pcie->cfg_type0 + PEX_OUTWIN0_TAL, 0);
699
700         if (fsl_pcie_check_link(hose))
701                 hose->indirect_type |= PPC_INDIRECT_TYPE_NO_PCIE_LINK;
702
703         return 0;
704 err1:
705         iounmap(pcie->cfg_type0);
706 err0:
707         kfree(pcie);
708         return ret;
709
710 }
711
712 int __init mpc83xx_add_bridge(struct device_node *dev)
713 {
714         int ret;
715         int len;
716         struct pci_controller *hose;
717         struct resource rsrc_reg;
718         struct resource rsrc_cfg;
719         const int *bus_range;
720         int primary;
721
722         is_mpc83xx_pci = 1;
723
724         if (!of_device_is_available(dev)) {
725                 pr_warning("%s: disabled by the firmware.\n",
726                            dev->full_name);
727                 return -ENODEV;
728         }
729         pr_debug("Adding PCI host bridge %s\n", dev->full_name);
730
731         /* Fetch host bridge registers address */
732         if (of_address_to_resource(dev, 0, &rsrc_reg)) {
733                 printk(KERN_WARNING "Can't get pci register base!\n");
734                 return -ENOMEM;
735         }
736
737         memset(&rsrc_cfg, 0, sizeof(rsrc_cfg));
738
739         if (of_address_to_resource(dev, 1, &rsrc_cfg)) {
740                 printk(KERN_WARNING
741                         "No pci config register base in dev tree, "
742                         "using default\n");
743                 /*
744                  * MPC83xx supports up to two host controllers
745                  *      one at 0x8500 has config space registers at 0x8300
746                  *      one at 0x8600 has config space registers at 0x8380
747                  */
748                 if ((rsrc_reg.start & 0xfffff) == 0x8500)
749                         rsrc_cfg.start = (rsrc_reg.start & 0xfff00000) + 0x8300;
750                 else if ((rsrc_reg.start & 0xfffff) == 0x8600)
751                         rsrc_cfg.start = (rsrc_reg.start & 0xfff00000) + 0x8380;
752         }
753         /*
754          * Controller at offset 0x8500 is primary
755          */
756         if ((rsrc_reg.start & 0xfffff) == 0x8500)
757                 primary = 1;
758         else
759                 primary = 0;
760
761         /* Get bus range if any */
762         bus_range = of_get_property(dev, "bus-range", &len);
763         if (bus_range == NULL || len < 2 * sizeof(int)) {
764                 printk(KERN_WARNING "Can't get bus-range for %s, assume"
765                        " bus 0\n", dev->full_name);
766         }
767
768         pci_add_flags(PCI_REASSIGN_ALL_BUS);
769         hose = pcibios_alloc_controller(dev);
770         if (!hose)
771                 return -ENOMEM;
772
773         hose->first_busno = bus_range ? bus_range[0] : 0;
774         hose->last_busno = bus_range ? bus_range[1] : 0xff;
775
776         if (of_device_is_compatible(dev, "fsl,mpc8314-pcie")) {
777                 ret = mpc83xx_pcie_setup(hose, &rsrc_reg);
778                 if (ret)
779                         goto err0;
780         } else {
781                 setup_indirect_pci(hose, rsrc_cfg.start,
782                                    rsrc_cfg.start + 4, 0);
783         }
784
785         printk(KERN_INFO "Found FSL PCI host bridge at 0x%016llx. "
786                "Firmware bus number: %d->%d\n",
787                (unsigned long long)rsrc_reg.start, hose->first_busno,
788                hose->last_busno);
789
790         pr_debug(" ->Hose at 0x%p, cfg_addr=0x%p,cfg_data=0x%p\n",
791             hose, hose->cfg_addr, hose->cfg_data);
792
793         /* Interpret the "ranges" property */
794         /* This also maps the I/O region and sets isa_io/mem_base */
795         pci_process_bridge_OF_ranges(hose, dev, primary);
796
797         return 0;
798 err0:
799         pcibios_free_controller(hose);
800         return ret;
801 }
802 #endif /* CONFIG_PPC_83xx */
803
804 u64 fsl_pci_immrbar_base(struct pci_controller *hose)
805 {
806 #ifdef CONFIG_PPC_83xx
807         if (is_mpc83xx_pci) {
808                 struct mpc83xx_pcie_priv *pcie = hose->dn->data;
809                 struct pex_inbound_window *in;
810                 int i;
811
812                 /* Walk the Root Complex Inbound windows to match IMMR base */
813                 in = pcie->cfg_type0 + PEX_RC_INWIN_BASE;
814                 for (i = 0; i < 4; i++) {
815                         /* not enabled, skip */
816                         if (!(in_le32(&in[i].ar) & PEX_RCIWARn_EN))
817                                 continue;
818
819                         if (get_immrbase() == in_le32(&in[i].tar))
820                                 return (u64)in_le32(&in[i].barh) << 32 |
821                                             in_le32(&in[i].barl);
822                 }
823
824                 printk(KERN_WARNING "could not find PCI BAR matching IMMR\n");
825         }
826 #endif
827
828 #if defined(CONFIG_FSL_SOC_BOOKE) || defined(CONFIG_PPC_86xx)
829         if (!is_mpc83xx_pci) {
830                 u32 base;
831
832                 pci_bus_read_config_dword(hose->bus,
833                         PCI_DEVFN(0, 0), PCI_BASE_ADDRESS_0, &base);
834
835                 /*
836                  * For PEXCSRBAR, bit 3-0 indicate prefetchable and
837                  * address type. So when getting base address, these
838                  * bits should be masked
839                  */
840                 base &= PCI_BASE_ADDRESS_MEM_MASK;
841
842                 return base;
843         }
844 #endif
845
846         return 0;
847 }
848
849 #ifdef CONFIG_E500
850 static int mcheck_handle_load(struct pt_regs *regs, u32 inst)
851 {
852         unsigned int rd, ra, rb, d;
853
854         rd = get_rt(inst);
855         ra = get_ra(inst);
856         rb = get_rb(inst);
857         d = get_d(inst);
858
859         switch (get_op(inst)) {
860         case 31:
861                 switch (get_xop(inst)) {
862                 case OP_31_XOP_LWZX:
863                 case OP_31_XOP_LWBRX:
864                         regs->gpr[rd] = 0xffffffff;
865                         break;
866
867                 case OP_31_XOP_LWZUX:
868                         regs->gpr[rd] = 0xffffffff;
869                         regs->gpr[ra] += regs->gpr[rb];
870                         break;
871
872                 case OP_31_XOP_LBZX:
873                         regs->gpr[rd] = 0xff;
874                         break;
875
876                 case OP_31_XOP_LBZUX:
877                         regs->gpr[rd] = 0xff;
878                         regs->gpr[ra] += regs->gpr[rb];
879                         break;
880
881                 case OP_31_XOP_LHZX:
882                 case OP_31_XOP_LHBRX:
883                         regs->gpr[rd] = 0xffff;
884                         break;
885
886                 case OP_31_XOP_LHZUX:
887                         regs->gpr[rd] = 0xffff;
888                         regs->gpr[ra] += regs->gpr[rb];
889                         break;
890
891                 case OP_31_XOP_LHAX:
892                         regs->gpr[rd] = ~0UL;
893                         break;
894
895                 case OP_31_XOP_LHAUX:
896                         regs->gpr[rd] = ~0UL;
897                         regs->gpr[ra] += regs->gpr[rb];
898                         break;
899
900                 default:
901                         return 0;
902                 }
903                 break;
904
905         case OP_LWZ:
906                 regs->gpr[rd] = 0xffffffff;
907                 break;
908
909         case OP_LWZU:
910                 regs->gpr[rd] = 0xffffffff;
911                 regs->gpr[ra] += (s16)d;
912                 break;
913
914         case OP_LBZ:
915                 regs->gpr[rd] = 0xff;
916                 break;
917
918         case OP_LBZU:
919                 regs->gpr[rd] = 0xff;
920                 regs->gpr[ra] += (s16)d;
921                 break;
922
923         case OP_LHZ:
924                 regs->gpr[rd] = 0xffff;
925                 break;
926
927         case OP_LHZU:
928                 regs->gpr[rd] = 0xffff;
929                 regs->gpr[ra] += (s16)d;
930                 break;
931
932         case OP_LHA:
933                 regs->gpr[rd] = ~0UL;
934                 break;
935
936         case OP_LHAU:
937                 regs->gpr[rd] = ~0UL;
938                 regs->gpr[ra] += (s16)d;
939                 break;
940
941         default:
942                 return 0;
943         }
944
945         return 1;
946 }
947
948 static int is_in_pci_mem_space(phys_addr_t addr)
949 {
950         struct pci_controller *hose;
951         struct resource *res;
952         int i;
953
954         list_for_each_entry(hose, &hose_list, list_node) {
955                 if (!(hose->indirect_type & PPC_INDIRECT_TYPE_EXT_REG))
956                         continue;
957
958                 for (i = 0; i < 3; i++) {
959                         res = &hose->mem_resources[i];
960                         if ((res->flags & IORESOURCE_MEM) &&
961                                 addr >= res->start && addr <= res->end)
962                                 return 1;
963                 }
964         }
965         return 0;
966 }
967
968 int fsl_pci_mcheck_exception(struct pt_regs *regs)
969 {
970         u32 inst;
971         int ret;
972         phys_addr_t addr = 0;
973
974         /* Let KVM/QEMU deal with the exception */
975         if (regs->msr & MSR_GS)
976                 return 0;
977
978 #ifdef CONFIG_PHYS_64BIT
979         addr = mfspr(SPRN_MCARU);
980         addr <<= 32;
981 #endif
982         addr += mfspr(SPRN_MCAR);
983
984         if (is_in_pci_mem_space(addr)) {
985                 if (user_mode(regs)) {
986                         pagefault_disable();
987                         ret = get_user(regs->nip, &inst);
988                         pagefault_enable();
989                 } else {
990                         ret = probe_kernel_address(regs->nip, inst);
991                 }
992
993                 if (mcheck_handle_load(regs, inst)) {
994                         regs->nip += 4;
995                         return 1;
996                 }
997         }
998
999         return 0;
1000 }
1001 #endif
1002
1003 #if defined(CONFIG_FSL_SOC_BOOKE) || defined(CONFIG_PPC_86xx)
1004 static const struct of_device_id pci_ids[] = {
1005         { .compatible = "fsl,mpc8540-pci", },
1006         { .compatible = "fsl,mpc8548-pcie", },
1007         { .compatible = "fsl,mpc8610-pci", },
1008         { .compatible = "fsl,mpc8641-pcie", },
1009         { .compatible = "fsl,qoriq-pcie", },
1010         { .compatible = "fsl,qoriq-pcie-v2.1", },
1011         { .compatible = "fsl,qoriq-pcie-v2.2", },
1012         { .compatible = "fsl,qoriq-pcie-v2.3", },
1013         { .compatible = "fsl,qoriq-pcie-v2.4", },
1014         { .compatible = "fsl,qoriq-pcie-v3.0", },
1015
1016         /*
1017          * The following entries are for compatibility with older device
1018          * trees.
1019          */
1020         { .compatible = "fsl,p1022-pcie", },
1021         { .compatible = "fsl,p4080-pcie", },
1022
1023         {},
1024 };
1025
1026 struct device_node *fsl_pci_primary;
1027
1028 void fsl_pci_assign_primary(void)
1029 {
1030         struct device_node *np;
1031
1032         /* Callers can specify the primary bus using other means. */
1033         if (fsl_pci_primary)
1034                 return;
1035
1036         /* If a PCI host bridge contains an ISA node, it's primary. */
1037         np = of_find_node_by_type(NULL, "isa");
1038         while ((fsl_pci_primary = of_get_parent(np))) {
1039                 of_node_put(np);
1040                 np = fsl_pci_primary;
1041
1042                 if (of_match_node(pci_ids, np) && of_device_is_available(np))
1043                         return;
1044         }
1045
1046         /*
1047          * If there's no PCI host bridge with ISA, arbitrarily
1048          * designate one as primary.  This can go away once
1049          * various bugs with primary-less systems are fixed.
1050          */
1051         for_each_matching_node(np, pci_ids) {
1052                 if (of_device_is_available(np)) {
1053                         fsl_pci_primary = np;
1054                         of_node_put(np);
1055                         return;
1056                 }
1057         }
1058 }
1059
1060 #ifdef CONFIG_PM_SLEEP
1061 static irqreturn_t fsl_pci_pme_handle(int irq, void *dev_id)
1062 {
1063         struct pci_controller *hose = dev_id;
1064         struct ccsr_pci __iomem *pci = hose->private_data;
1065         u32 dr;
1066
1067         dr = in_be32(&pci->pex_pme_mes_dr);
1068         if (!dr)
1069                 return IRQ_NONE;
1070
1071         out_be32(&pci->pex_pme_mes_dr, dr);
1072
1073         return IRQ_HANDLED;
1074 }
1075
1076 static int fsl_pci_pme_probe(struct pci_controller *hose)
1077 {
1078         struct ccsr_pci __iomem *pci;
1079         struct pci_dev *dev;
1080         int pme_irq;
1081         int res;
1082         u16 pms;
1083
1084         /* Get hose's pci_dev */
1085         dev = list_first_entry(&hose->bus->devices, typeof(*dev), bus_list);
1086
1087         /* PME Disable */
1088         pci_read_config_word(dev, dev->pm_cap + PCI_PM_CTRL, &pms);
1089         pms &= ~PCI_PM_CTRL_PME_ENABLE;
1090         pci_write_config_word(dev, dev->pm_cap + PCI_PM_CTRL, pms);
1091
1092         pme_irq = irq_of_parse_and_map(hose->dn, 0);
1093         if (!pme_irq) {
1094                 dev_err(&dev->dev, "Failed to map PME interrupt.\n");
1095
1096                 return -ENXIO;
1097         }
1098
1099         res = devm_request_irq(hose->parent, pme_irq,
1100                         fsl_pci_pme_handle,
1101                         IRQF_SHARED,
1102                         "[PCI] PME", hose);
1103         if (res < 0) {
1104                 dev_err(&dev->dev, "Unable to requiest irq %d for PME\n", pme_irq);
1105                 irq_dispose_mapping(pme_irq);
1106
1107                 return -ENODEV;
1108         }
1109
1110         pci = hose->private_data;
1111
1112         /* Enable PTOD, ENL23D & EXL23D */
1113         clrbits32(&pci->pex_pme_mes_disr,
1114                   PME_DISR_EN_PTOD | PME_DISR_EN_ENL23D | PME_DISR_EN_EXL23D);
1115
1116         out_be32(&pci->pex_pme_mes_ier, 0);
1117         setbits32(&pci->pex_pme_mes_ier,
1118                   PME_DISR_EN_PTOD | PME_DISR_EN_ENL23D | PME_DISR_EN_EXL23D);
1119
1120         /* PME Enable */
1121         pci_read_config_word(dev, dev->pm_cap + PCI_PM_CTRL, &pms);
1122         pms |= PCI_PM_CTRL_PME_ENABLE;
1123         pci_write_config_word(dev, dev->pm_cap + PCI_PM_CTRL, pms);
1124
1125         return 0;
1126 }
1127
1128 static void send_pme_turnoff_message(struct pci_controller *hose)
1129 {
1130         struct ccsr_pci __iomem *pci = hose->private_data;
1131         u32 dr;
1132         int i;
1133
1134         /* Send PME_Turn_Off Message Request */
1135         setbits32(&pci->pex_pmcr, PEX_PMCR_PTOMR);
1136
1137         /* Wait trun off done */
1138         for (i = 0; i < 150; i++) {
1139                 dr = in_be32(&pci->pex_pme_mes_dr);
1140                 if (dr) {
1141                         out_be32(&pci->pex_pme_mes_dr, dr);
1142                         break;
1143                 }
1144
1145                 udelay(1000);
1146         }
1147 }
1148
1149 static void fsl_pci_syscore_do_suspend(struct pci_controller *hose)
1150 {
1151         send_pme_turnoff_message(hose);
1152 }
1153
1154 static int fsl_pci_syscore_suspend(void)
1155 {
1156         struct pci_controller *hose, *tmp;
1157
1158         list_for_each_entry_safe(hose, tmp, &hose_list, list_node)
1159                 fsl_pci_syscore_do_suspend(hose);
1160
1161         return 0;
1162 }
1163
1164 static void fsl_pci_syscore_do_resume(struct pci_controller *hose)
1165 {
1166         struct ccsr_pci __iomem *pci = hose->private_data;
1167         u32 dr;
1168         int i;
1169
1170         /* Send Exit L2 State Message */
1171         setbits32(&pci->pex_pmcr, PEX_PMCR_EXL2S);
1172
1173         /* Wait exit done */
1174         for (i = 0; i < 150; i++) {
1175                 dr = in_be32(&pci->pex_pme_mes_dr);
1176                 if (dr) {
1177                         out_be32(&pci->pex_pme_mes_dr, dr);
1178                         break;
1179                 }
1180
1181                 udelay(1000);
1182         }
1183
1184         setup_pci_atmu(hose);
1185 }
1186
1187 static void fsl_pci_syscore_resume(void)
1188 {
1189         struct pci_controller *hose, *tmp;
1190
1191         list_for_each_entry_safe(hose, tmp, &hose_list, list_node)
1192                 fsl_pci_syscore_do_resume(hose);
1193 }
1194
1195 static struct syscore_ops pci_syscore_pm_ops = {
1196         .suspend = fsl_pci_syscore_suspend,
1197         .resume = fsl_pci_syscore_resume,
1198 };
1199 #endif
1200
1201 void fsl_pcibios_fixup_phb(struct pci_controller *phb)
1202 {
1203 #ifdef CONFIG_PM_SLEEP
1204         fsl_pci_pme_probe(phb);
1205 #endif
1206 }
1207
1208 static int fsl_pci_probe(struct platform_device *pdev)
1209 {
1210         struct device_node *node;
1211         int ret;
1212
1213         node = pdev->dev.of_node;
1214         ret = fsl_add_bridge(pdev, fsl_pci_primary == node);
1215
1216         mpc85xx_pci_err_probe(pdev);
1217
1218         return 0;
1219 }
1220
1221 static struct platform_driver fsl_pci_driver = {
1222         .driver = {
1223                 .name = "fsl-pci",
1224                 .of_match_table = pci_ids,
1225         },
1226         .probe = fsl_pci_probe,
1227 };
1228
1229 static int __init fsl_pci_init(void)
1230 {
1231 #ifdef CONFIG_PM_SLEEP
1232         register_syscore_ops(&pci_syscore_pm_ops);
1233 #endif
1234         return platform_driver_register(&fsl_pci_driver);
1235 }
1236 arch_initcall(fsl_pci_init);
1237 #endif