]> git.karo-electronics.de Git - linux-beck.git/commitdiff
iommu/exynos: Use exynos-iommu specific typedef
authorCho KyongHo <pullip.cho@samsung.com>
Mon, 12 May 2014 06:14:58 +0000 (11:44 +0530)
committerJoerg Roedel <jroedel@suse.de>
Tue, 13 May 2014 17:12:57 +0000 (19:12 +0200)
This commit introduces sysmmu_pte_t for page table entries and
sysmmu_iova_t vor I/O virtual address that is manipulated by
exynos-iommu driver. The purpose of the typedef is to remove
dependencies to the driver code from the change of CPU architecture
from 32 bit to 64 bit.

Signed-off-by: Cho KyongHo <pullip.cho@samsung.com>
Signed-off-by: Shaik Ameer Basha <shaik.ameer@samsung.com>
Signed-off-by: Joerg Roedel <jroedel@suse.de>
drivers/iommu/exynos-iommu.c

index d89ad5f8747c1c46b221f145189fbbacead6b4a9..3291619c9db0f6712b12e865ed72bc67241bd2fc 100644 (file)
@@ -29,6 +29,9 @@
 #include <asm/cacheflush.h>
 #include <asm/pgtable.h>
 
+typedef u32 sysmmu_iova_t;
+typedef u32 sysmmu_pte_t;
+
 /* We does not consider super section mapping (16MB) */
 #define SECT_ORDER 20
 #define LPAGE_ORDER 16
 #define lv2ent_small(pent) ((*(pent) & 2) == 2)
 #define lv2ent_large(pent) ((*(pent) & 3) == 1)
 
+static u32 sysmmu_page_offset(sysmmu_iova_t iova, u32 size)
+{
+       return iova & (size - 1);
+}
+
 #define section_phys(sent) (*(sent) & SECT_MASK)
-#define section_offs(iova) ((iova) & 0xFFFFF)
+#define section_offs(iova) sysmmu_page_offset((iova), SECT_SIZE)
 #define lpage_phys(pent) (*(pent) & LPAGE_MASK)
-#define lpage_offs(iova) ((iova) & 0xFFFF)
+#define lpage_offs(iova) sysmmu_page_offset((iova), LPAGE_SIZE)
 #define spage_phys(pent) (*(pent) & SPAGE_MASK)
-#define spage_offs(iova) ((iova) & 0xFFF)
-
-#define lv1ent_offset(iova) ((iova) >> SECT_ORDER)
-#define lv2ent_offset(iova) (((iova) & 0xFF000) >> SPAGE_ORDER)
+#define spage_offs(iova) sysmmu_page_offset((iova), SPAGE_SIZE)
 
 #define NUM_LV1ENTRIES 4096
-#define NUM_LV2ENTRIES 256
+#define NUM_LV2ENTRIES (SECT_SIZE / SPAGE_SIZE)
 
-#define LV2TABLE_SIZE (NUM_LV2ENTRIES * sizeof(long))
+static u32 lv1ent_offset(sysmmu_iova_t iova)
+{
+       return iova >> SECT_ORDER;
+}
+
+static u32 lv2ent_offset(sysmmu_iova_t iova)
+{
+       return (iova >> SPAGE_ORDER) & (NUM_LV2ENTRIES - 1);
+}
+
+#define LV2TABLE_SIZE (NUM_LV2ENTRIES * sizeof(sysmmu_pte_t))
 
 #define SPAGES_PER_LPAGE (LPAGE_SIZE / SPAGE_SIZE)
 
 
 static struct kmem_cache *lv2table_kmem_cache;
 
-static unsigned long *section_entry(unsigned long *pgtable, unsigned long iova)
+static sysmmu_pte_t *section_entry(sysmmu_pte_t *pgtable, sysmmu_iova_t iova)
 {
        return pgtable + lv1ent_offset(iova);
 }
 
-static unsigned long *page_entry(unsigned long *sent, unsigned long iova)
+static sysmmu_pte_t *page_entry(sysmmu_pte_t *sent, sysmmu_iova_t iova)
 {
-       return (unsigned long *)phys_to_virt(
+       return (sysmmu_pte_t *)phys_to_virt(
                                lv2table_base(sent)) + lv2ent_offset(iova);
 }
 
@@ -150,7 +165,7 @@ static char *sysmmu_fault_name[SYSMMU_FAULTS_NUM] = {
 
 struct exynos_iommu_domain {
        struct list_head clients; /* list of sysmmu_drvdata.node */
-       unsigned long *pgtable; /* lv1 page table, 16KB */
+       sysmmu_pte_t *pgtable; /* lv1 page table, 16KB */
        short *lv2entcnt; /* free lv2 entry counter for each section */
        spinlock_t lock; /* lock for this structure */
        spinlock_t pgtablelock; /* lock for modifying page table @ pgtable */
@@ -215,7 +230,7 @@ static void __sysmmu_tlb_invalidate(void __iomem *sfrbase)
 }
 
 static void __sysmmu_tlb_invalidate_entry(void __iomem *sfrbase,
-                               unsigned long iova, unsigned int num_inv)
+                               sysmmu_iova_t iova, unsigned int num_inv)
 {
        unsigned int i;
        for (i = 0; i < num_inv; i++) {
@@ -226,7 +241,7 @@ static void __sysmmu_tlb_invalidate_entry(void __iomem *sfrbase,
 }
 
 static void __sysmmu_set_ptbase(void __iomem *sfrbase,
-                                      unsigned long pgd)
+                                      phys_addr_t pgd)
 {
        __raw_writel(0x1, sfrbase + REG_MMU_CFG); /* 16KB LV1, LRU */
        __raw_writel(pgd, sfrbase + REG_PT_BASE_ADDR);
@@ -236,22 +251,22 @@ static void __sysmmu_set_ptbase(void __iomem *sfrbase,
 
 static void show_fault_information(const char *name,
                enum exynos_sysmmu_inttype itype,
-               phys_addr_t pgtable_base, unsigned long fault_addr)
+               phys_addr_t pgtable_base, sysmmu_iova_t fault_addr)
 {
-       unsigned long *ent;
+       sysmmu_pte_t *ent;
 
        if ((itype >= SYSMMU_FAULTS_NUM) || (itype < SYSMMU_PAGEFAULT))
                itype = SYSMMU_FAULT_UNKNOWN;
 
-       pr_err("%s occurred at %#lx by %s(Page table base: %pa)\n",
+       pr_err("%s occurred at %#x by %s(Page table base: %pa)\n",
                sysmmu_fault_name[itype], fault_addr, name, &pgtable_base);
 
        ent = section_entry(phys_to_virt(pgtable_base), fault_addr);
-       pr_err("\tLv1 entry: 0x%lx\n", *ent);
+       pr_err("\tLv1 entry: %#x\n", *ent);
 
        if (lv1ent_page(ent)) {
                ent = page_entry(ent, fault_addr);
-               pr_err("\t Lv2 entry: 0x%lx\n", *ent);
+               pr_err("\t Lv2 entry: %#x\n", *ent);
        }
 }
 
@@ -260,7 +275,7 @@ static irqreturn_t exynos_sysmmu_irq(int irq, void *dev_id)
        /* SYSMMU is in blocked when interrupt occurred. */
        struct sysmmu_drvdata *data = dev_id;
        enum exynos_sysmmu_inttype itype;
-       unsigned long addr = -1;
+       sysmmu_iova_t addr = -1;
        int ret = -ENOSYS;
 
        WARN_ON(!is_sysmmu_active(data));
@@ -284,7 +299,7 @@ static irqreturn_t exynos_sysmmu_irq(int irq, void *dev_id)
                        __func__);
                BUG();
        } else {
-               unsigned long base =
+               unsigned int base =
                                __raw_readl(data->sfrbase + REG_PT_BASE_ADDR);
                show_fault_information(dev_name(data->sysmmu),
                                        itype, base, addr);
@@ -349,7 +364,7 @@ finish:
  * enabled before.
  */
 static int __exynos_sysmmu_enable(struct sysmmu_drvdata *data,
-                       unsigned long pgtable, struct iommu_domain *domain)
+                       phys_addr_t pgtable, struct iommu_domain *domain)
 {
        int ret = 0;
        unsigned long flags;
@@ -390,7 +405,7 @@ finish:
        return ret;
 }
 
-int exynos_sysmmu_enable(struct device *dev, unsigned long pgtable)
+int exynos_sysmmu_enable(struct device *dev, phys_addr_t pgtable)
 {
        struct sysmmu_drvdata *data = dev_get_drvdata(dev->archdata.iommu);
        int ret;
@@ -426,7 +441,7 @@ static bool exynos_sysmmu_disable(struct device *dev)
        return disabled;
 }
 
-static void sysmmu_tlb_invalidate_entry(struct device *dev, unsigned long iova,
+static void sysmmu_tlb_invalidate_entry(struct device *dev, sysmmu_iova_t iova,
                                        size_t size)
 {
        unsigned long flags;
@@ -577,7 +592,7 @@ static int exynos_iommu_domain_init(struct iommu_domain *domain)
        if (!priv)
                return -ENOMEM;
 
-       priv->pgtable = (unsigned long *)__get_free_pages(
+       priv->pgtable = (sysmmu_pte_t *)__get_free_pages(
                                                GFP_KERNEL | __GFP_ZERO, 2);
        if (!priv->pgtable)
                goto err_pgtable;
@@ -716,19 +731,19 @@ finish:
                pm_runtime_put(data->sysmmu);
 }
 
-static unsigned long *alloc_lv2entry(unsigned long *sent, unsigned long iova,
+static sysmmu_pte_t *alloc_lv2entry(sysmmu_pte_t *sent, sysmmu_iova_t iova,
                                        short *pgcounter)
 {
        if (lv1ent_section(sent)) {
-               WARN(1, "Trying mapping on %#08lx mapped with 1MiB page", iova);
+               WARN(1, "Trying mapping on %#08x mapped with 1MiB page", iova);
                return ERR_PTR(-EADDRINUSE);
        }
 
        if (lv1ent_fault(sent)) {
-               unsigned long *pent;
+               sysmmu_pte_t *pent;
 
                pent = kmem_cache_zalloc(lv2table_kmem_cache, GFP_ATOMIC);
-               BUG_ON((unsigned long)pent & (LV2TABLE_SIZE - 1));
+               BUG_ON((unsigned int)pent & (LV2TABLE_SIZE - 1));
                if (!pent)
                        return ERR_PTR(-ENOMEM);
 
@@ -741,18 +756,18 @@ static unsigned long *alloc_lv2entry(unsigned long *sent, unsigned long iova,
        return page_entry(sent, iova);
 }
 
-static int lv1set_section(unsigned long *sent, unsigned long iova,
+static int lv1set_section(sysmmu_pte_t *sent, sysmmu_iova_t iova,
                          phys_addr_t paddr, short *pgcnt)
 {
        if (lv1ent_section(sent)) {
-               WARN(1, "Trying mapping on 1MiB@%#08lx that is mapped",
+               WARN(1, "Trying mapping on 1MiB@%#08x that is mapped",
                        iova);
                return -EADDRINUSE;
        }
 
        if (lv1ent_page(sent)) {
                if (*pgcnt != NUM_LV2ENTRIES) {
-                       WARN(1, "Trying mapping on 1MiB@%#08lx that is mapped",
+                       WARN(1, "Trying mapping on 1MiB@%#08x that is mapped",
                                iova);
                        return -EADDRINUSE;
                }
@@ -768,7 +783,7 @@ static int lv1set_section(unsigned long *sent, unsigned long iova,
        return 0;
 }
 
-static int lv2set_page(unsigned long *pent, phys_addr_t paddr, size_t size,
+static int lv2set_page(sysmmu_pte_t *pent, phys_addr_t paddr, size_t size,
                                                                short *pgcnt)
 {
        if (size == SPAGE_SIZE) {
@@ -800,11 +815,12 @@ static int lv2set_page(unsigned long *pent, phys_addr_t paddr, size_t size,
        return 0;
 }
 
-static int exynos_iommu_map(struct iommu_domain *domain, unsigned long iova,
+static int exynos_iommu_map(struct iommu_domain *domain, unsigned long l_iova,
                         phys_addr_t paddr, size_t size, int prot)
 {
        struct exynos_iommu_domain *priv = domain->priv;
-       unsigned long *entry;
+       sysmmu_pte_t *entry;
+       sysmmu_iova_t iova = (sysmmu_iova_t)l_iova;
        unsigned long flags;
        int ret = -ENOMEM;
 
@@ -818,7 +834,7 @@ static int exynos_iommu_map(struct iommu_domain *domain, unsigned long iova,
                ret = lv1set_section(entry, iova, paddr,
                                        &priv->lv2entcnt[lv1ent_offset(iova)]);
        } else {
-               unsigned long *pent;
+               sysmmu_pte_t *pent;
 
                pent = alloc_lv2entry(entry, iova,
                                        &priv->lv2entcnt[lv1ent_offset(iova)]);
@@ -831,7 +847,7 @@ static int exynos_iommu_map(struct iommu_domain *domain, unsigned long iova,
        }
 
        if (ret)
-               pr_debug("%s: Failed to map iova 0x%lx/0x%x bytes\n",
+               pr_debug("%s: Failed to map iova %#x/%#zx bytes\n",
                                                        __func__, iova, size);
 
        spin_unlock_irqrestore(&priv->pgtablelock, flags);
@@ -840,13 +856,14 @@ static int exynos_iommu_map(struct iommu_domain *domain, unsigned long iova,
 }
 
 static size_t exynos_iommu_unmap(struct iommu_domain *domain,
-                                              unsigned long iova, size_t size)
+                                       unsigned long l_iova, size_t size)
 {
        struct exynos_iommu_domain *priv = domain->priv;
        struct sysmmu_drvdata *data;
-       unsigned long flags;
-       unsigned long *ent;
+       sysmmu_iova_t iova = (sysmmu_iova_t)l_iova;
+       sysmmu_pte_t *ent;
        size_t err_pgsize;
+       unsigned long flags;
 
        BUG_ON(priv->pgtable == NULL);
 
@@ -913,7 +930,7 @@ err:
        spin_unlock_irqrestore(&priv->pgtablelock, flags);
 
        WARN(1,
-       "%s: Failed due to size(%#x) @ %#08lx is smaller than page size %#x\n",
+       "%s: Failed due to size(%#zx) @ %#x is smaller than page size %#zx\n",
        __func__, size, iova, err_pgsize);
 
        return 0;
@@ -923,7 +940,7 @@ static phys_addr_t exynos_iommu_iova_to_phys(struct iommu_domain *domain,
                                          dma_addr_t iova)
 {
        struct exynos_iommu_domain *priv = domain->priv;
-       unsigned long *entry;
+       sysmmu_pte_t *entry;
        unsigned long flags;
        phys_addr_t phys = 0;